#image_title

Les deepfakes de l’IA menacent de bouleverser les élections mondiales. Personne ne peut les arrêter.

Le téléphone de Divyendra Singh Jadoun sonne décroché. Connu sous le nom de Deepfaker indien, Jadoun est célèbre pour avoir utilisé l’intelligence artificielle pour créer des séquences Bollywood et des publicités télévisées.

Mais alors que commence le vote échelonné lors des élections indiennes, Jadoun affirme que des centaines de politiciens réclament ses services, et plus de la moitié demandent des choses contraires à l’éthique. Les candidats lui ont demandé de simuler des enregistrements audio de concurrents faisant des gaffes pendant la campagne électorale ou de superposer les visages des challengers sur des images pornographiques. Certaines campagnes ont demandé de fausses vidéos de mauvaise qualité de leur propre candidat, qui pourraient être diffusées pour jeter le doute sur d’éventuelles vidéos réelles et accablantes qui émergeraient pendant l’élection.

Jadoun, 31 ans, dit qu’il refuse les emplois destinés à diffamer ou à tromper. Mais il s’attend à ce que de nombreux consultants s’y rendent, déformant la réalité lors des plus grandes élections au monde, alors que plus d’un demi-milliard d’électeurs indiens se rendent aux urnes.

La seule chose qui nous empêche de créer des deepfakes contraires à l’éthique est notre éthique, a déclaré Jadoun au Washington Post. Mais il est très difficile d’arrêter cela.

Les élections en Inde, qui ont débuté la semaine dernière et se poursuivront jusqu’au début juin, offrent un aperçu de la façon dont l’explosion des outils d’IA transforme le processus démocratique, facilitant le développement de faux médias transparents autour des campagnes. Plus de la moitié de la population mondiale vit dans plus de 50 pays qui accueilleront des élections en 2024, marquant une année charnière pour les démocraties mondiales.

Bien que l’on ne sache pas combien de contrefaçons d’IA ont été faites sur des politiciens, les experts affirment qu’ils observent une augmentation mondiale des contrefaçons électorales.

je vois plus [political deepfakes] cette année que l’année dernière et ceux que je vois sont plus sophistiqués et convaincants, a déclaré Hany Farid, professeur d’informatique à l’Université de Californie à Berkeley.

Alors que les décideurs politiques et les régulateurs, de Bruxelles à Washington, s’empressent d’élaborer une législation restreignant l’utilisation d’audio, d’images et de vidéos alimentés par l’IA pendant la campagne électorale, un vide réglementaire apparaît. La loi historique de l’Union européenne sur l’IA n’entre en vigueur qu’après les élections législatives de juin. Au Congrès américain, il est peu probable qu’une législation bipartite interdisant de faussement représenter les candidats fédéraux utilisant l’IA soit adoptée avant les élections de novembre. Une poignée d’États américains ont adopté des lois pénalisant les personnes qui réalisent des vidéos trompeuses sur les politiciens, créant ainsi une mosaïque de politiques à travers le pays.

En attendant, il existe peu de garde-fous pour dissuader les politiciens et leurs alliés d’utiliser l’IA pour tromper les électeurs, et les responsables de l’application des lois sont rarement à la hauteur des contrefaçons qui peuvent se propager rapidement sur les réseaux sociaux ou dans les discussions de groupe. La démocratisation de l’IA signifie que c’est à des individus comme Jadoun et non aux régulateurs de faire des choix éthiques pour éviter le chaos électoral induit par l’IA.

Ne restons pas les bras croisés pendant que nos élections sont gâchées, a déclaré la sénatrice Amy Klobuchar (Démocrate-Minn.), qui préside la commission du Règlement du Sénat, dans un discours le mois dernier à l’Atlantic Council. C’est comme un moment de cheveux en feu. Ce n’est pas un moment d’attendre trois ans et de voir comment ça se passe.

Plus sophistiqué et convaincant

Pendant des années, les groupes étatiques ont inondé Facebook, Twitter (maintenant X) et d’autres médias sociaux de désinformation, imitant le modèle que la Russie a utilisé en 2016 pour attiser la discorde lors des élections américaines. Mais l’IA permet à de petits acteurs de participer, ce qui fait de la lutte contre les mensonges une entreprise fragmentée et difficile.

Le ministère de la Sécurité intérieure a averti les responsables électoraux dans une note que l’IA générative pourrait être utilisée pour renforcer les campagnes d’influence étrangère ciblant les élections. Les outils d’IA pourraient permettre à de mauvais acteurs de se faire passer pour des responsables électoraux, a déclaré le DHS dans la note, diffusant des informations incorrectes sur la manière de voter ou sur l’intégrité du processus électoral.

Ces avertissements deviennent une réalité partout dans le monde. Des acteurs soutenus par l’État ont utilisé l’IA générative pour s’immiscer dans les élections taïwanaises du début de cette année. Le jour du scrutin, un groupe affilié au Parti communiste chinois a publié un enregistrement audio généré par l’IA d’un éminent homme politique qui s’est retiré des élections taïwanaises et a apporté son soutien à un autre candidat, selon un rapport de Microsoft. Mais le politicien, Terry Gou, propriétaire de Foxconn, n’avait jamais fait une telle approbation, et YouTube a supprimé l’audio.

Divyendra Singh Jadoun a utilisé l’IA pour transformer la voix du Premier ministre indien Modi en vœux personnalisés pour la fête hindoue de Diwali. (Vidéo : Divyendra Singh Jadoun)

Taiwan a finalement élu Lai Ching-te, un candidat auquel les dirigeants du Parti communiste chinois se sont opposés, signalant les limites de la campagne pour affecter les résultats de l’élection.

Microsoft s’attend à ce que la Chine utilise cette année un modèle similaire en Inde, en Corée du Sud et aux États-Unis. Les expériences croissantes de la Chine en matière d’augmentation des mèmes, des vidéos et de l’audio se poursuivront probablement et pourraient s’avérer plus efficaces à terme, indique le rapport de Microsoft.

Mais le faible coût et la large disponibilité des outils d’IA générative ont permis à des personnes sans soutien étatique de se livrer à des supercheries. qui rivalise avec les campagnes des États-nations.

En Moldavie, des vidéos deepfake d’AI ont montré la présidente pro-occidentale du pays, Maia Sandu, démissionnant et exhortant la population à soutenir un parti pro-Poutine lors des élections locales. En Afrique du Sud, une version modifiée numériquement du rappeur Eminem a soutenu un parti d’opposition sud-africain avant les élections du pays en mai.

En janvier, un agent politique démocrate a simulé la voix du président Biden pour exhorter les électeurs des primaires du New Hampshire à ne pas se rendre aux urnes, un coup destiné à attirer l’attention sur les problèmes liés à ce média.

L’essor des deepfakes d’IA pourrait modifier la démographie des candidats aux élections, car les mauvais acteurs utilisent de manière disproportionnée le contenu synthétique pour cibler les femmes.

Depuis des années, Rumeen Farhana, politicienne d’un parti d’opposition au Bangladesh, est victime de harcèlement sexuel sur Internet. Mais l’année dernière, une fausse photo d’elle en bikini est apparue sur les réseaux sociaux.

Farhana a déclaré qu’on ne savait pas clairement qui avait réalisé l’image. Mais au Bangladesh, pays conservateur à majorité musulmane, la photo a suscité des commentaires harcelants de la part de citoyens ordinaires sur les réseaux sociaux, de nombreux électeurs pensant que la photo était réelle.

De telles atteintes à leur personnalité pourraient empêcher les candidates de se soumettre à la vie politique, a déclaré Farhana.

Quelles que soient les nouveautés qui arrivent, elles sont toujours utilisées en premier contre les femmes. Ils sont les victimes dans tous les cas, a déclaré Farhana. L’IA ne fait en aucun cas exception.

En l’absence d’activité du Congrès, les États prennent des mesures tandis que les régulateurs internationaux souscrivent des engagements volontaires aux entreprises.

Une dizaine d’États ont adopté des lois qui pénaliseraient ceux qui utilisent l’IA pour tromper les électeurs. Le mois dernier, le gouverneur du Wisconsin a signé un projet de loi bipartite qui imposerait des amendes aux personnes qui ne divulgueraient pas l’IA dans les publicités politiques. Et une loi du Michigan punit toute personne qui diffuse sciemment un deepfake généré par l’IA dans les 90 jours suivant une élection.

Pourtant, il n’est pas clair si les sanctions, qui comprennent des amendes allant jusqu’à 1 000 dollars et jusqu’à 90 jours de prison, selon la municipalité, sont suffisamment sévères pour dissuader les contrevenants potentiels.

Avec une technologie de détection limitée et peu de personnel désigné, les forces de l’ordre peuvent avoir du mal à confirmer rapidement si une vidéo ou une image est réellement générée par l’IA.

En l’absence de réglementation, les responsables gouvernementaux recherchent des accords volontaires de la part des politiciens et des entreprises technologiques pour contrôler la prolifération du contenu électoral généré par l’IA. La vice-présidente de la Commission européenne, Vera Jourova, a déclaré qu’elle avait envoyé des lettres aux principaux partis politiques des États membres européens pour les appeler à résister au recours à des techniques de manipulation. Cependant, a-t-elle ajouté, les politiciens et les partis politiques ne subiront aucune conséquence s’ils ne tiennent pas compte de sa demande.

Je ne peux pas dire s’ils suivront ou non nos conseils, a-t-elle déclaré lors d’un entretien. Sinon, je serais très triste, car si nous avons l’ambition de gouverner dans nos États membres, nous devrions également montrer que nous pouvons gagner les élections sans méthodes sales.

Jourova a déclaré qu’en juillet 2023, elle avait demandé aux grandes plateformes de médias sociaux d’étiqueter les productions générées par l’IA avant les élections. La demande a reçu une réponse mitigée dans la Silicon Valley, où certaines plateformes lui ont dit qu’il serait impossible de développer une technologie pour détecter l’IA.

OpenAI, qui fabrique le chatbot ChatGPT et le générateur d’images DALL-E, a également cherché à nouer des relations avec les sociétés de médias sociaux pour gérer la distribution de documents politiques générés par l’IA. Lors de la conférence sur la sécurité de Munich en février, 20 grandes entreprises technologiques se sont engagées à s’associer pour détecter et supprimer les contenus nuisibles de l’IA lors des élections de 2024.

Il s’agit d’un problème qui touche l’ensemble de la société, a déclaré Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, lors d’une interview post-live. Il n’est dans aucun de nos intérêts que cette technologie soit exploitée de cette manière, et tout le monde est très motivé, notamment parce que nous tirons désormais les leçons des élections et des années précédentes.

Pourtant, les entreprises ne seront pas sanctionnées si elles ne respectent pas leur engagement. Il y a déjà eu des écarts entre les politiques déclarées d’OpenAI et leur application. Un super PAC soutenu par des initiés de la Silicon Valley a lancé un chatbot IA du candidat à la présidence de longue date Dean Phillips, alimenté par le logiciel ChatGPT de l’entreprise, en violation de l’interdiction d’OpenAI d’utiliser sa technologie dans les campagnes politiques. La société n’a pas interdit le robot jusqu’à ce que The Post en fasse rapport.

Jadoun, qui fait du travail politique sur AI pour les principaux partis électoraux indiens, a déclaré que la propagation des deepfakes ne peut pas être résolue par le gouvernement seul, les citoyens doivent être plus éduqués.

Tout contenu qui fait passer vos émotions à un niveau supérieur, a-t-il dit, arrêtez-vous et attendez avant de le partager.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite