Les images explicites de Taylor Swift générées par l’IA se propagent rapidement sur les réseaux sociaux | Affaires CNN
Axelle/Bauer-Griffin/FilmMagic/Getty Images/FILE
Taylor Swift
New York
CNN
Des images pornographiques générées par l’IA de la star la plus célèbre du monde se sont répandues sur les réseaux sociaux cette semaine, soulignant le potentiel dommageable posé par la technologie dominante de l’intelligence artificielle : sa capacité à créer des images convaincantes, réelles et dommageables.
Les fausses images de Taylor Swift étaient principalement circulant sur le site de réseau social X, anciennement connu sous le nom de Twitter. Les photos qui montrent le chanteur dans des positions sexuellement suggestives et explicites ont été vues des dizaines de millions de fois avant d’être supprimées des plateformes sociales. Mais rien sur Internet n’est vraiment perdu pour toujours, et ils continueront sans aucun doute à être partagés sur d’autres chaînes moins réglementées.
Le porte-parole de Swifts n’a pas répondu à une demande de commentaire.
Comme la plupart des grandes plateformes de médias sociaux, Politiques Xs interdire le partage de médias synthétiques, manipulés ou hors contexte qui peuvent tromper ou confondre les gens et causer du tort.
La société n’a pas répondu à la demande de commentaires de CNN.
L’incident survient alors que les États-Unis se dirigent vers une année d’élection présidentielle, et les inquiétudes grandissent quant à la manière dont des images et des vidéos trompeuses générées par l’IA pourraient être utilisées pour diriger les efforts de désinformation et, à terme, perturber le vote.
Il s’agit d’un excellent exemple de la manière dont l’IA se déchaîne pour de nombreuses raisons néfastes sans suffisamment de garde-fous pour protéger la place publique, a déclaré à CNN Ben Decker, qui dirige Memetica, une agence d’enquêtes numériques.
Decker a déclaré que l’exploitation d’outils d’IA générative pour créer du contenu potentiellement dangereux ciblant tous les types de personnalités publiques augmente rapidement et se propage plus rapidement que jamais sur les réseaux sociaux.
Les sociétés de médias sociaux n’ont pas vraiment mis en place de plans efficaces pour surveiller le contenu, a-t-il déclaré.
X, par exemple, a largement vidé son équipe de modération de contenu et s’appuie sur sur les systèmes automatisés et le reporting des utilisateurs. (Dans l’UE, X fait actuellement l’objet d’une enquête sur ses pratiques de modération de contenu).
Meta a également réduit ses équipes chargées de lutter contre la désinformation et de coordonner les campagnes de troll et de harcèlement sur ses plateformes, ont déclaré à CNN des personnes ayant une connaissance directe de la situation, soulevant des inquiétudes à l’approche des élections cruciales de 2024 aux États-Unis et dans le monde.
On ne sait pas d’où proviennent les images liées à Taylor Swift. Bien que certaines images aient été trouvées sur des sites tels qu’Instagram et Reddit, elles constituaient un problème largement répandu sur X en particulier.
L’incident coïncide également avec la montée en puissance d’outils de génération d’IA tels que ChatGPT et Dall-E. Cependant, il existe également un monde beaucoup plus vaste de modèles d’IA non modérés et non sûrs pour le travail sur les plates-formes open source, a déclaré Decker.
Cela est révélateur d’un type plus large de fracture en matière de modération de contenu et de gouvernance des plateformes, car si toutes les parties prenantes, les sociétés d’IA, les sociétés de médias sociaux, les régulateurs et la société civile, ne parlent pas des mêmes choses et ne sont pas sur la même longueur d’onde sur la manière de résoudre ces problèmes, ce type de contenu va simplement continuer à proliférer, a-t-il ajouté.
Decker a cependant déclaré que le fait que Swift soit ciblé pourrait attirer davantage l’attention sur les problèmes croissants liés aux images générées par l’IA. L’énorme contingent de fidèles Swifties a exprimé son indignation sur les réseaux sociaux cette semaine, mettant le problème au premier plan. En 2022, un effondrement de Ticketmaster avant son concert Eras Tour a déclenché la colère en ligne, conduisant à plusieurs efforts législatifs pour réprimer les politiques de billetterie peu favorables aux consommateurs.
Peut-être qu’il en sera de même pour les images dommageables générées par l’IA, a suggéré Decker.
Quand tu as des personnages comme Taylor Swift qui sont aussi grands [targeted] »C’est peut-être ce qui incite les législateurs et les entreprises technologiques à agir, car ils ne peuvent pas se permettre que la chérie de l’Amérique participe à une campagne publique contre eux », a-t-il déclaré. Je dirais qu’ils doivent la faire se sentir mieux, car elle a probablement plus d’influence que presque n’importe qui d’autre sur Internet.
Ce type de technologie a été utilisé depuis un certain temps déjà pour créer ce qu’on appelle du porno vengeance en publiant des images explicites de quelqu’un en ligne sans son consentement, mais il suscite aujourd’hui un regain d’attention en raison des photos offensantes de Swift.
Neuf États américains ont actuellement des lois interdisant la création ou le partage de fausses photographies non consensuelles, qui sont des images synthétiques créées pour imiter une personne.