Ne pouvons-nous plus croire tout ce que nous voyons ?
Voir n’est plus croire depuis très longtemps. Les photos ont été truquées et manipulées depuis presque aussi longtemps que la photographie existe.
Maintenant, même la réalité n’est pas nécessaire pour que les photographies aient l’air authentiques, juste une intelligence artificielle répondant à une invite. Même les experts ont parfois du mal à dire si l’un est réel ou non. Peux-tu?
L’avènement rapide de l’intelligence artificielle a déclenché des alarmes selon lesquelles la technologie utilisée pour tromper les gens progresse beaucoup plus rapidement que la technologie qui peut identifier les astuces. Les entreprises technologiques, les chercheurs, les agences photo et les agences de presse se démènent pour rattraper leur retard, essayant d’établir des normes de provenance et de propriété du contenu.
Les progrès alimentent déjà la désinformation et sont utilisés pour attiser les divisions politiques. Les gouvernements autoritaires ont créé des diffuseurs d’informations apparemment réalistes pour faire avancer leurs objectifs politiques. Le mois dernier, certaines personnes sont tombées sous le charme d’images montrant le pape François enfilant une veste gonflée Balenciaga et un tremblement de terre dévastant le nord-ouest du Pacifique, même si aucun de ces événements ne s’était produit. Les images ont été créées à l’aide de Midjourney, un générateur d’images populaire.
Mardi, alors que l’ancien président Donald J. Trump se rendait au bureau du procureur du district de Manhattan pour faire face à des accusations criminelles, des images générées par l’intelligence artificielle sont apparues sur Reddit montrant l’acteur Bill Murray en tant que président de la Maison Blanche. Une autre image montrant M. Trump marchant devant une foule nombreuse avec des drapeaux américains en arrière-plan a été rapidement partagée sur Twitter sans la divulgation qui avait accompagné le message d’origine, notant qu’il ne s’agissait pas en fait d’une photographie.
Les experts craignent que la technologie n’accélère une érosion de la confiance dans les médias, le gouvernement et la société. Si n’importe quelle image peut être fabriquée et manipulée, comment pouvons-nous croire tout ce que nous voyons ?
Les outils vont s’améliorer, ils vont devenir moins chers, et il viendra un jour où rien de ce que vous voyez sur Internet ne pourra être cru, a déclaré Wasim Khaled, directeur général de Blackbird.AI, une entreprise qui aide les clients à lutter contre la désinformation.
L’intelligence artificielle permet à pratiquement n’importe qui de créer des œuvres d’art complexes, comme celles actuellement exposées à la galerie d’art Gagosian à New York, ou des images réalistes qui brouillent la frontière entre le réel et la fiction. Branchez une description textuelle et la technologie peut produire une image associée sans compétences particulières requises.
Souvent, il y a des indices que les images virales ont été créées par un ordinateur plutôt que capturées dans la vraie vie : le pape luxueusement enduit avait des lunettes qui semblaient fondre dans sa joue et des doigts flous, par exemple. Les outils d’art de l’IA produisent également souvent du texte absurde. Voici quelques exemples:
Cependant, les progrès rapides de la technologie éliminent bon nombre de ces défauts. La dernière version de Midjourneys, publiée le mois dernier, est capable de représenter des mains réalistes, un exploit qui avait, visiblement, échappé aux premiers outils d’imagerie.
Quelques jours avant que M. Trump ne se rende pour faire face à des accusations criminelles à New York, des images de son arrestation ont circulé sur les réseaux sociaux. Elles ont été créées par Eliot Higgins, un journaliste britannique et fondateur de Bellingcat, une organisation d’enquête open source. Il a utilisé Midjourney pour imaginer les anciens présidents arrêtés, jugés, emprisonnés dans une combinaison orange et s’échappant par un égout. Il a posté les images sur Twitter, les marquant clairement comme des créations. Ils ont depuis été largement partagés.
Les images n’étaient pas destinées à tromper qui que ce soit. Au lieu de cela, M. Higgins a voulu attirer l’attention sur la puissance des outils, même à ses débuts.
Une nouvelle génération de chatbots
Un nouveau monde courageux. Une nouvelle génération de chatbots alimentés par l’intelligence artificielle a déclenché une ruée pour déterminer si la technologie pourrait bouleverser l’économie d’Internet, transformer les centrales électriques d’aujourd’hui en has-beens et créer les prochains géants de l’industrie. Voici les bots à connaître :
Les images de mi-journée, a-t-il dit, ont pu réussir dans les programmes de reconnaissance faciale que Bellingcat utilise pour vérifier les identités, généralement des Russes qui ont commis des crimes ou d’autres abus. Il n’est pas difficile d’imaginer des gouvernements ou d’autres acteurs néfastes fabriquer des images pour harceler ou discréditer leurs ennemis.
Dans le même temps, a déclaré M. Higgins, l’outil a également eu du mal à créer des images convaincantes avec des personnes qui ne sont pas aussi largement photographiées que M. Trump, comme le nouveau Premier ministre britannique, Rishi Sunak, ou le comédien Harry Hill, qui a probablement n’est pas connu en dehors du Royaume-Uni.
Midjourney ne s’amusait en aucun cas. Il a suspendu le compte de M. Higginss sans explication après la diffusion des images. La société n’a pas répondu aux demandes de commentaires.
Les limites des images génératives les rendent relativement faciles à détecter par les organes de presse ou autres sensibilisés au risque, du moins pour le moment.
Pourtant, les sociétés de photos, les régulateurs gouvernementaux et un groupe commercial de l’industrie musicale ont pris des mesures pour protéger leur contenu contre toute utilisation non autorisée, mais la puissante capacité des technologies à imiter et à s’adapter complique ces efforts.
Certains générateurs d’images AI ont même reproduit des images en hommage à Twin Peaks ; Will Smith mangeant des poignées de pâtes avec des versions déformées des filigranes utilisés par des sociétés comme Getty Images ou Shutterstock.
En février, Getty a accusé Stability AI d’avoir copié illégalement plus de 12 millions de photos Getty, ainsi que des légendes et des métadonnées, pour former le logiciel derrière son outil Stable Diffusion. Dans son procès, Getty a fait valoir que Stable Diffusion diluait la valeur du filigrane Getty en l’incorporant dans des images allant du bizarre au grotesque.
Getty a déclaré que le vol effronté et le freeride ont été menés à une échelle stupéfiante. Stability AI n’a pas répondu à une demande de commentaire.
Le procès de Gettys reflète les inquiétudes soulevées par de nombreux artistes individuels selon lesquelles les entreprises d’IA deviennent une menace concurrentielle en copiant du contenu qu’elles n’ont pas l’autorisation d’utiliser.
Les violations de marques sont également devenues une préoccupation : des images générées artificiellement ont reproduit le logo du paon de NBC, mais avec des lettres inintelligibles, et ont montré le logo courbé familier de Coca-Cola avec des Os supplémentaires en boucle dans le nom.
En février, le US Copyright Office s’est penché sur les images générées artificiellement lorsqu’il a évalué le cas de Zarya of the Dawn, une bande dessinée de 18 pages écrite par Kristina Kashtanova avec des illustrations générées par Midjourney. L’administrateur du gouvernement a décidé d’offrir une protection du droit d’auteur au texte de la bande dessinée, mais pas à son art.
En raison de la distance importante entre ce qu’un utilisateur peut ordonner à Midjourney de créer et le matériel visuel que Midjourney produit réellement, les utilisateurs de Midjourney n’ont pas suffisamment de contrôle sur les images générées pour être traités comme le cerveau derrière eux, a expliqué le bureau dans sa décision.
La menace qui pèse sur les photographes dépasse rapidement le développement des protections juridiques, a déclaré Mickey H. Osterreicher, avocat général de la National Press Photographers Association. Les salles de rédaction auront de plus en plus de mal à authentifier le contenu. Les utilisateurs des médias sociaux ignorent les étiquettes qui identifient clairement les images comme étant générées artificiellement, choisissant de croire qu’il s’agit de vraies photographies, a-t-il déclaré.
L’IA générative pourrait également faciliter la production de fausses vidéos. Cette semaine, une vidéo est apparue en ligne qui semblait montrer Nina Schick, auteure et experte en IA générative, expliquant comment la technologie créait un monde où les ombres sont confondues avec la réalité. Le visage de Mme Schicks s’est ensuite figé lorsque la caméra s’est retirée, montrant un corps double à sa place.
La vidéo expliquait que le deepfake avait été créé, avec le consentement de Mme Schicks, par la société néerlandaise Revel.ai et Truepic, une société californienne qui explore une vérification plus large du contenu numérique.
Les entreprises ont décrit leur vidéo, qui comporte un tampon l’identifiant comme générée par ordinateur, comme le premier deepfake numériquement transparent. Les données sont scellées cryptographiquement dans le fichier ; la falsification de l’image casse la signature numérique et empêche les informations d’identification d’apparaître lors de l’utilisation d’un logiciel de confiance.
Les entreprises espèrent que le badge, qui sera payant pour les clients commerciaux, sera adopté par d’autres créateurs de contenu pour aider à créer une norme de confiance impliquant des images d’IA.
L’ampleur de ce problème va s’accélérer si rapidement qu’il va entraîner très rapidement l’éducation des consommateurs, a déclaré Jeff McGregor, directeur général de Truepic.
Truepic fait partie de la Coalition for Content Provenance and Authenticity, un projet mis en place grâce à une alliance avec des entreprises telles qu’Adobe, Intel et Microsoft pour mieux retracer les origines des médias numériques. Le fabricant de puces Nvidia a déclaré le mois dernier qu’il travaillait avec Getty pour aider à former des modèles d’IA responsables utilisant le contenu sous licence de Getty, avec des redevances versées aux artistes.
Le même jour, Adobe a dévoilé son propre produit de génération d’images, Firefly, qui sera formé en utilisant uniquement des images sous licence ou de son propre stock ou plus sous copyright. Dana Rao, le directeur de la confiance de l’entreprise, a déclaré sur son site Web que l’outil ajouterait automatiquement des informations d’identification de contenu comme une étiquette nutritionnelle pour l’imagerie qui identifiait comment une image avait été créée. Adobe a déclaré qu’il prévoyait également de rémunérer les contributeurs.
Le mois dernier, le mannequin Chrissy Teigen écrit sur Twitter qu’elle avait été trompée par la veste bouffante du pape, ajoutant qu’il n’y avait aucun moyen pour moi de survivre à l’avenir de la technologie.
La semaine dernière, un série de nouvelles images AI montra le pape, de retour dans sa robe habituelle, dégustant un grand verre de bière. Les mains semblaient presque normales, à l’exception de l’alliance à l’annulaire du pontife.
Production supplémentaire par Jeanne Noonan DelMundo, Aaron Krolik et Michel André.