David Horvitz, en recherchant avec des images de son propre visage, a mis au jour des incohérences : des photographies d’étrangers identifiés à tort par l’intelligence artificielle comme lui.
Les photographies présentées ici sont des erreurs, des fausses identifications, des images que la technologie d’intelligence artificielle a considérées comme étant le visage de l’artiste, mais qui ne le sont pas. Ces photographies représentent des “autres personnes”, des individus inconnus de Horvitz, mais avec une légère ressemblance, menant des vies parallèles. L’éthique de ces bases de données d’images est ambiguë. Elles sont constituées de photographies numériques extraites d’Internet. Dans la plupart des cas, les auteurs (et les personnes représentées) de ces images ignorent que leurs photographies ont été copiées et que leur accès a été monétisé. Les agences de sécurité font partie des clients de ces bases de données, les utilisant pour améliorer leurs techniques de surveillance et de contrôle. Ce travail s’inspire de recherches portant sur les supports de formation utilisés par les gardes-frontières est-allemands au poste-frontière Checkpoint Charlie, issus de la collection du Wende Museum.
By searching with images of his own face, David Horvitz uncovered mismatches: photographs of strangers mistakenly identified by artificial intelligence as him.
These images raise questions about the ethical gray areas of image databases, often monetized without the knowledge or consent of those depicted. Drawing inspiration from research on training materials used by East German border guards at Checkpoint Charlie, preserved in the Wende Museum’s collection, this project explores the implications of technology and identity in the age of artificial intelligence.