Un développeur a construit une « machine de propagande » alimentée par l’IA pour mettre en évidence les dangers de la désinformation
- Un développeur a construit une machine de propagande alimentée par l’IA en moins de deux mois.
- En utilisant des outils OpenAI comme ChatGPT, le modèle coûte moins de 400 $ par mois à exploiter.
- Le projet a été conçu pour montrer aux gens à quel point il est facile de créer de la propagande de masse.
Un développeur a construit une « machine de désinformation » d’IA en utilisant une technologie basée sur OpenAI comme ChatGPT.
Le projet, nommé CounterCloud, a pris deux mois à son créateur et a coûté moins de 400 dollars par mois à exploiter, soulignant à quel point il peut être simple et bon marché de créer une propagande de masse.
Le créateur, qui a choisi de rester anonyme, a utilisé le nom de Nea Paw et a affirmé être un professionnel de la cybersécurité, a rapporté Wired.
Dans une vidéo publiée sur YouTube, Paw a décrit comment le projet a été réalisé et pourquoi ils l’ont fait.
Ils ont déclaré vouloir voir la désinformation de l’IA « fonctionner dans le monde réel », ajoutant que « les solides compétences linguistiques des grands modèles linguistiques sont parfaitement adaptées à la lecture et à la rédaction de faux articles d’information ».
Paw a déclaré qu’ils avaient commencé par saisir des articles « opposés » dans ChatGPT et par écrire des invites lui demandant d’écrire un contre-article.
Le robot IA proposerait alors différents exemples du même article, rédigés dans des styles différents et avec des points de vue différents.
Ils ont déclaré qu’il y parviendrait en « créant de fausses histoires, de faux événements historiques et en créant un doute sur l’exactitude de l’article original ».
Un module de contrôle d’accès a ensuite été ajouté afin que l’IA ne réponde qu’au contenu le plus pertinent, tandis que des clips audio de lecteurs de nouvelles lisant les faux articles et photos générés par l’IA ont été ajoutés pour créer de l’authenticité.
Ils ont également créé de faux profils de journalistes et de faux commentaires sous certains articles.
Le système a ensuite été invité à aimer et à republier les messages qui correspondaient à son récit ou à écrire des « contre-tweets » à ceux qui ne le faisaient pas.
En deux mois, ils disposaient d’un système entièrement autonome, alimenté par l’IA, qui générait « un contenu convaincant 90 % du temps, 24 heures sur 24, sept jours sur sept ».
Les créateurs n’ont pas encore mis le modèle en ligne sur Internet, car « cela signifierait diffuser activement la désinformation et la propagande. Une fois que le génie est sorti sur Internet, on ne sait pas où il finirait », a déclaré Paw.
Mais ils ont ajouté qu’ils pensaient qu’il serait plus bénéfique de publier CounterCloud et d’éduquer le public sur le fonctionnement interne de ces systèmes.
La menace que l’IA fait peser sur la démocratie en raison de sa capacité à accélérer la création et la propagation de la désinformation en ligne a été l’une des principales préoccupations du débat sur l’IA.
Le PDG d’OpenAI, Sam Altman, a récemment exprimé son inquiétude sur ce problème, affirmant que « la persuasion personnalisée 1:1, combinée à des médias générés de haute qualité, va être une force puissante ».
REGARDEZ MAINTENANT : Vidéos populaires d’Insider Inc.
Chargement…