L’utilisation de l’IA dans les élections déclenche une ruée vers les garde-fous
À Toronto, un candidat à l’élection du maire de cette semaine qui s’est engagé à nettoyer les campements de sans-abri a publié une série de promesses de campagne illustrées par l’intelligence artificielle, y compris de fausses images dystopiques de personnes campant dans une rue du centre-ville et une image fabriquée de tentes installées dans un parc .
En Nouvelle-Zélande, un parti politique a publié sur Instagram un rendu réaliste de faux voleurs se déchaînant dans une bijouterie.
À Chicago, le finaliste du vote à la mairie en avril s’est plaint qu’un compte Twitter se faisant passer pour un média avait utilisé l’IA pour cloner sa voix d’une manière qui suggérait qu’il tolérait la brutalité policière.
Ce qui a commencé il y a quelques mois comme une lente goutte à goutte d’e-mails de collecte de fonds et d’images promotionnelles composées par l’IA pour les campagnes politiques s’est transformé en un flux constant de matériel de campagne créé par la technologie, réécrivant le manuel politique pour les élections démocratiques dans le monde.
De plus en plus, les consultants politiques, les chercheurs électoraux et les législateurs affirment que la mise en place de nouveaux garde-fous, comme une législation limitant les publicités générées de manière synthétique, devrait être une priorité urgente. Les défenses existantes, telles que les règles des médias sociaux et les services qui prétendent détecter le contenu de l’IA, n’ont pas fait grand-chose pour ralentir la marée.
Alors que la course présidentielle américaine de 2024 commence à se réchauffer, certaines des campagnes testent déjà la technologie. Le Comité national républicain a publié une vidéo avec des images générées artificiellement de scénarios apocalyptiques après que le président Biden a annoncé sa candidature à la réélection, tandis que le gouverneur Ron DeSantis de Floride a publié de fausses images de l’ancien président Donald J. Trump avec le Dr Anthony Fauci, l’ancien médecin de la santé. officiel. Le Parti démocrate a expérimenté des messages de collecte de fonds rédigés par l’intelligence artificielle au printemps et a constaté qu’ils étaient souvent plus efficaces pour encourager l’engagement et les dons que des copies entièrement écrites par des humains.
Certains politiciens voient l’intelligence artificielle comme un moyen d’aider à réduire les coûts de campagne, en l’utilisant pour créer des réponses instantanées pour débattre des questions ou attaquer des publicités, ou pour analyser des données qui pourraient autrement nécessiter des experts coûteux.
Dans le même temps, la technologie a le potentiel de diffuser la désinformation à un large public. Une fausse vidéo peu flatteuse, une explosion d’e-mails remplis de faux récits produits par ordinateur ou une image fabriquée de la décomposition urbaine peuvent renforcer les préjugés et élargir la division partisane en montrant aux électeurs ce qu’ils s’attendent à voir, disent les experts.
La technologie est déjà bien plus puissante que la manipulation manuelle pas parfaite, mais s’améliore rapidement et facile à apprendre. En mai, le directeur général d’OpenAI, Sam Altman, dont la société a aidé à lancer un boom de l’intelligence artificielle l’année dernière avec son populaire chatbot ChatGPT, a déclaré à un sous-comité sénatorial qu’il était nerveux à propos de la saison électorale.
Il a déclaré que la capacité de la technologie à manipuler, à persuader, à fournir une sorte de désinformation interactive individuelle était un domaine de préoccupation important.
La représentante Yvette D. Clarke, une démocrate de New York, a déclaré dans un communiqué le mois dernier que le cycle électoral de 2024 est sur le point d’être la première élection où le contenu généré par l’IA est répandu. Elle et d’autres démocrates du Congrès, dont la sénatrice Amy Klobuchar du Minnesota, ont présenté une législation qui exigerait que les publicités politiques utilisant du matériel généré artificiellement portent une clause de non-responsabilité. Un projet de loi similaire dans l’État de Washington a récemment été promulgué.
L’American Association of Political Consultants a récemment condamné l’utilisation de contenu deepfake dans les campagnes politiques comme une violation de son code d’éthique.
Les gens vont être tentés de repousser les limites et de voir où ils peuvent prendre les choses, a déclaré Larry Huynh, le nouveau président du groupe. Comme pour tout outil, il peut y avoir de mauvaises utilisations et de mauvaises actions en les utilisant pour mentir aux électeurs, pour induire les électeurs en erreur, pour créer une croyance en quelque chose qui n’existe pas.
L’intrusion récente des technologies dans la politique a été une surprise à Toronto, une ville qui soutient un écosystème florissant de recherche et de start-ups sur l’intelligence artificielle. L’élection du maire a lieu lundi.
Un candidat conservateur dans la course, Anthony Furey, un ancien chroniqueur de presse, a récemment présenté sa plate-forme dans un document de plusieurs dizaines de pages et rempli de contenu généré synthétiquement pour l’aider à prendre sa position de dur à la criminalité.
Un examen plus approfondi a clairement montré que de nombreuses images n’étaient pas réelles : une scène de laboratoire mettait en scène des scientifiques qui ressemblaient à des taches extraterrestres. Une femme dans un autre rendu portait une épingle sur son cardigan avec des lettres illisibles; des marques similaires sont apparues sur une image de ruban de mise en garde sur un chantier de construction. La campagne de M. Fureys a également utilisé un portrait synthétique d’une femme assise avec deux bras croisés et un troisième bras touchant son menton.
Les autres candidats ont exploité cette image pour rire lors d’un débat ce mois-ci : ils utilisaient en fait de vraies images, a déclaré Josh Matlow, qui a montré une photo de sa famille et a ajouté que personne sur nos photos n’avait trois bras.
Pourtant, les rendus bâclés ont été utilisés pour amplifier l’argument de M. Fureys. Il a pris suffisamment d’élan pour devenir l’un des noms les plus reconnaissables lors d’une élection avec plus de 100 candidats. Dans le même débat, il a reconnu avoir utilisé la technologie dans sa campagne, ajoutant qu’il allait rire ici alors que nous continuons à en apprendre davantage sur l’IA.
Les experts politiques craignent que l’intelligence artificielle, lorsqu’elle est mal utilisée, puisse avoir un effet corrosif sur le processus démocratique. La désinformation est un risque constant ; l’un des rivaux de M. Fureys a déclaré lors d’un débat que même si les membres de son équipe utilisaient ChatGPT, ils vérifiaient toujours ses résultats.
Si quelqu’un peut créer du bruit, créer de l’incertitude ou développer de faux récits, cela pourrait être un moyen efficace d’influencer les électeurs et de gagner la course, a écrit Darrell M. West, chercheur principal à la Brookings Institution, dans un rapport le mois dernier. Étant donné que l’élection présidentielle de 2024 peut se résumer à des dizaines de milliers d’électeurs dans quelques États, tout ce qui peut pousser les gens dans un sens ou dans un autre pourrait finir par être décisif.
Un contenu d’IA de plus en plus sophistiqué apparaît plus fréquemment sur les réseaux sociaux qui ont été en grande partie réticents ou incapables de le contrôler, a déclaré Ben Colman, directeur général de Reality Defender, une société qui propose des services pour détecter l’IA. La faible surveillance permet au contenu synthétique non étiqueté de faire dommages irréversibles avant qu’ils ne soient traités, a-t-il déclaré.
Expliquer à des millions d’utilisateurs que le contenu qu’ils ont déjà vu et partagé était faux, bien après coup, c’est trop peu, trop tard, a déclaré M. Colman.
Pendant plusieurs jours ce mois-ci, un livestream Twitch a organisé un débat non-stop et non sûr pour le travail entre des versions synthétiques de M. Biden et de M. Trump. Les deux ont été clairement identifiés comme des entités d’IA simulées, mais si une campagne politique organisée créait un tel contenu et qu’il se répandait largement sans aucune divulgation, cela pourrait facilement dégrader la valeur du matériel réel, ont déclaré des experts en désinformation.
Les politiciens pouvaient ignorer la responsabilité et prétendre que des images authentiques d’actions compromettantes n’étaient pas réelles, un phénomène connu sous le nom de dividende des menteurs. Les citoyens ordinaires pourraient fabriquer leurs propres faux, tandis que d’autres pourraient s’enraciner plus profondément dans des bulles d’information polarisées, ne croyant que les sources qu’ils choisissaient de croire.
Si les gens ne peuvent pas faire confiance à leurs yeux et à leurs oreilles, ils peuvent simplement dire : qui sait ? Josh A. Goldstein, chercheur au Georgetown Universitys Center for Security and Emerging Technology, a écrit dans un e-mail. Cela pourrait favoriser le passage d’un scepticisme sain qui encourage les bonnes habitudes (comme la lecture latérale et la recherche de sources fiables) à un scepticisme malsain selon lequel il est impossible de savoir ce qui est vrai.