Est-il facile de tromper les outils de détection d’IA ?
Le pape ne portait pas de Balenciaga. Et les cinéastes n’ont pas simulé l’alunissage. Ces derniers mois, cependant, des images étonnamment réalistes de ces scènes créées par l’intelligence artificielle se sont propagées de manière virale en ligne, menaçant la capacité de la société à séparer les faits de la fiction.
Pour faire le tri dans la confusion, un nombre croissant d’entreprises proposent désormais des services pour détecter ce qui est réel et ce qui ne l’est pas.
Leurs outils analysent le contenu à l’aide d’algorithmes sophistiqués, captant des signaux subtils pour distinguer les images réalisées avec des ordinateurs de celles produites par des photographes et des artistes humains. Mais certains leaders technologiques et experts en désinformation ont exprimé leur inquiétude quant au fait que les progrès de l’IA auront toujours une longueur d’avance sur les outils.
Pour évaluer l’efficacité de la technologie actuelle de détection de l’IA, le New York Times a testé cinq nouveaux services en utilisant plus de 100 images synthétiques et de vraies photos. Les résultats montrent que les services progressent rapidement, mais qu’ils sont parfois insuffisants.
Considérez cet exemple :

<!–
–>
<!–
–>
Cette image semble montrer l’entrepreneur milliardaire Elon Musk embrassant un robot réaliste. L’image a été créée à l’aide de Midjourney, le générateur d’images AI, par Guerrero Art, un artiste qui travaille avec la technologie AI.
Malgré l’invraisemblance de l’image, elle a réussi à tromper plusieurs détecteurs d’images AI.
Résultats des tests à partir de l’image de M. Musk
Les détecteurs, y compris les versions payantes, telles que Sensity, et les versions gratuites, telles que Umm-maybes AI Art Detector, sont conçus pour détecter les marqueurs difficiles à repérer intégrés dans les images générées par l’IA. Ils recherchent des motifs inhabituels dans la disposition des pixels, y compris dans leur netteté et leur contraste. Ces signaux ont tendance à être générés lorsque les programmes d’IA créent des images.
Mais les détecteurs ignorent tous les indices contextuels, ils ne traitent donc pas l’existence d’un automate réaliste sur une photo avec M. Musk comme improbable. C’est l’un des inconvénients de s’appuyer sur la technologie pour détecter les contrefaçons.
Plusieurs sociétés, dont Sensity, Hive et Inholo, la société derrière Illuminarty, n’ont pas contesté les résultats et ont déclaré que leurs systèmes s’amélioraient constamment pour suivre les dernières avancées en matière de génération d’images IA. Hive a ajouté que ses erreurs de classification peuvent survenir lorsqu’il analyse des images de qualité inférieure. Umm-peut-être et Optic, la société derrière AI or Not, n’ont pas répondu aux demandes de commentaires.
Pour effectuer les tests, The Times a rassemblé des images d’IA d’artistes et de chercheurs familiers avec des variations d’outils génératifs tels que Midjourney, Stable Diffusion et DALL-E, qui peuvent créer des portraits réalistes de personnes et d’animaux et des représentations réalistes de la nature, de l’immobilier, de la nourriture. et plus. Les images réelles utilisées proviennent des archives photographiques du Times.
Voici sept exemples :
Remarque : Images recadrées à partir de leur taille d’origine.
La technologie de détection a été annoncée comme un moyen d’atténuer les dommages causés par les images d’IA.
Des experts en IA comme Chenhao Tan, professeur adjoint d’informatique à l’Université de Chicago et directeur de son laboratoire de recherche Chicago Human+AI, sont moins convaincus.
En général, je ne pense pas qu’ils soient géniaux, et je ne suis pas optimiste qu’ils le seront, a-t-il déclaré. À court terme, il est possible qu’ils soient capables de fonctionner avec une certaine précision, mais à long terme, tout ce qu’un humain fait de spécial avec des images, l’IA pourra également le recréer, et ce sera très difficile pour distinguer la différence.
La plupart des préoccupations ont porté sur des portraits réalistes. Le gouverneur Ron DeSantis de Floride, qui est également candidat républicain à la présidence, a été critiqué après que sa campagne ait utilisé des images générées par l’IA dans un message. Les œuvres d’art générées synthétiquement qui se concentrent sur le paysage ont également semé la confusion dans les courses politiques.
De nombreuses entreprises à l’origine des détecteurs d’IA ont reconnu que leurs outils étaient imparfaits et ont mis en garde contre une course aux armements technologiques : les détecteurs doivent souvent rattraper les systèmes d’IA qui semblent s’améliorer de minute en minute.
Chaque fois que quelqu’un construit un meilleur générateur, les gens construisent de meilleurs discriminateurs, puis les gens utilisent le meilleur discriminateur pour construire un meilleur générateur, a déclaré Cynthia Rudin, professeur d’informatique et d’ingénierie à l’Université Duke, où elle est également la chercheuse principale de l’Interpretable. Laboratoire d’apprentissage automatique. Les générateurs sont conçus pour pouvoir tromper un détecteur.
Parfois, les détecteurs échouent même lorsqu’une image est manifestement fausse.
Dan Lytle, un artiste qui travaille avec l’IA et gère un compte TikTok appelé The_AI_Experiment, a demandé à Midjourney de créer une image vintage d’un géant de Néandertal debout parmi des hommes normaux. Il a produit ce portrait vieilli d’une bête imposante ressemblant à un yéti à côté d’un couple pittoresque.

<!–
–>
<!–
–>
Résultats des tests à partir de l’image d’un géant
Le mauvais résultat de chaque service testé démontre un inconvénient avec les détecteurs d’IA actuels : ils ont tendance à avoir du mal avec des images qui ont été modifiées par rapport à leur sortie d’origine ou qui sont de mauvaise qualité, selon Kevin Guo, fondateur et directeur général de Hive, un outil de détection d’images.
Lorsque des générateurs d’IA comme Midjourney créent des illustrations photoréalistes, ils emballent l’image avec des millions de pixels, chacun contenant des indices sur ses origines. Mais si vous le déformez, si vous le redimensionnez, réduisez la résolution, tout ça, par définition, vous modifiez ces pixels et ce signal numérique supplémentaire disparaît, a déclaré M. Guo.
Lorsque Hive, par exemple, a exécuté une version à plus haute résolution de l’illustration Yeti, il a correctement déterminé que l’image était générée par l’IA.
De telles lacunes peuvent saper le potentiel des détecteurs d’IA à devenir une arme contre les faux contenus. Au fur et à mesure que les images deviennent virales en ligne, elles sont souvent copiées, réenregistrées, rétrécies ou recadrées, masquant les signaux importants sur lesquels les détecteurs d’IA s’appuient. Un nouvel outil d’Adobe Photoshop, connu sous le nom de remplissage génératif, utilise l’IA pour étendre une photo au-delà de ses frontières. (Lorsqu’elle a été testée sur une photographie agrandie à l’aide d’un remplissage génératif, la technologie a confondu la plupart des services de détection.)
Le portrait inhabituel ci-dessous, qui montre le président Biden, a une bien meilleure résolution. Elle a été prise à Gettysburg, en Pennsylvanie, par Damon Winter, le photographe du Times.
De nombreux détecteurs pensaient à juste titre que le portrait était authentique ; mais tous ne l’ont pas fait.

<!–
–>
<!–
–>
Résultats des tests à partir d’une photographie du président Biden
Étiqueter à tort une image authentique comme générée par l’IA est un risque important avec les détecteurs d’IA. Sensity a pu étiqueter correctement la plupart des images AI comme artificielles. Mais le même outil a incorrectement étiqueté de nombreuses photographies réelles comme étant générées par l’IA.
Ces risques pourraient s’étendre aux artistes, qui pourraient être accusés à tort d’utiliser des outils d’IA pour créer leurs œuvres.
Cette peinture de Jackson Pollock, appelée Convergence, présente les éclaboussures de peinture colorées et familières de l’artiste. La plupart des détecteurs d’IA, mais pas tous, ont déterminé qu’il s’agissait d’une image réelle et non d’une réplique générée par l’IA.

<!–
–>
<!–
–>
Résultats de test d’une peinture de Pollock
Les créateurs d’Illuminartys ont déclaré qu’ils voulaient un détecteur capable d’identifier les fausses œuvres d’art, comme les peintures et les dessins.
Lors des tests, Illuminarty a correctement évalué la plupart des photos réelles comme authentiques, mais n’a qualifié qu’environ la moitié des images AI d’artificielles. L’outil, ont déclaré les créateurs, a une conception intentionnellement prudente pour éviter d’accuser à tort les artistes d’utiliser l’IA
L’outil Illuminartys, ainsi que la plupart des autres détecteurs, a correctement identifié une image similaire dans le style de Pollock qui a été créée par le New York Times à l’aide de Midjourney.

<!–
–>
<!–
–>
Résultats des tests à partir de l’image d’une peinture éclaboussée
Les sociétés de détection d’IA affirment que leurs services sont conçus pour aider à promouvoir la transparence et la responsabilité, en aidant à signaler la désinformation, la fraude, la pornographie non consensuelle, la malhonnêteté artistique et d’autres abus de la technologie. Les experts du secteur préviennent que les marchés financiers et les électeurs pourraient devenir vulnérables à la ruse de l’IA.
Cette image, à la manière d’un portrait en noir et blanc, est assez convaincante. Il a été créé avec Midjourney par Marc Fibbens, un artiste basé en Nouvelle-Zélande qui travaille avec l’IA. La plupart des détecteurs d’IA ont quand même réussi à l’identifier correctement comme faux.

<!–
–>
<!–
–>
Résultats des tests à partir de l’image d’un homme portant Nike
Pourtant, les détecteurs d’IA ont eu du mal après l’introduction d’un peu de grain. Des détecteurs comme Hive ont soudainement cru que les fausses images étaient de vraies photos.
La texture subtile, qui était presque invisible à l’œil nu, interférait avec sa capacité à analyser les pixels à la recherche de signes de contenu généré par l’IA. Certaines entreprises tentent désormais d’identifier l’utilisation de l’IA dans les images en évaluant la perspective ou la taille des membres des sujets, en plus de scruter les pixels.
3,3 % susceptibles d’être générés par l’IA
99 % susceptibles d’être générés par l’IA
99 % susceptibles d’être générés par l’IA
3,3 % susceptibles d’être générés par l’IA
L’intelligence artificielle est capable de générer plus que des images réalistes, la technologie crée déjà du texte, de l’audio et des vidéos qui ont trompé les professeurs, escroqué les consommateurs et ont été utilisées pour tenter de renverser le cours de la guerre.
Les outils de détection de l’IA ne devraient pas être la seule défense, ont déclaré les chercheurs. Les créateurs d’images devraient intégrer des filigranes dans leur travail, a déclaré S. Shyam Sundar, directeur du Center for Socially Responsible Artificial Intelligence de la Pennsylvania State University. Les sites Web pourraient intégrer des outils de détection dans leurs backends, a-t-il déclaré, afin qu’ils puissent identifier automatiquement les images d’IA et les servir plus soigneusement aux utilisateurs avec des avertissements et des limitations sur la façon dont elles sont partagées.
Les images sont particulièrement puissantes, a déclaré M. Sundar, car elles ont tendance à provoquer une réponse viscérale. Les gens sont beaucoup plus susceptibles d’en croire leurs yeux.