Le spam AI inonde déjà Internet et il a un tell évident
ChatGPT et GPT-4 inondent déjà Internet de contenu généré par l’IA dans des endroits célèbres pour leur contenu inauthentique écrit à la hâte : les avis d’utilisateurs d’Amazon et Twitter.
Lorsque vous demandez à ChatGPT de faire quelque chose qu’il n’est pas censé faire, il renvoie plusieurs phrases courantes. Lorsque j’ai demandé à ChatGPT de me raconter une blague noire, il s’est excusé : « En tant que modèle de langage d’IA, je ne peux pas générer de contenu inapproprié ou offensant », a-t-il déclaré. Ces deux phrases, « en tant que modèle de langage IA » et « Je ne peux pas générer de contenu inapproprié », reviennent si fréquemment dans le contenu généré par ChatGPT qu’elles ont devenir des mèmes.
Ces termes peuvent raisonnablement être utilisés pour identifier le spam ChatGPT exécuté paresseusement en les recherchant sur Internet.
Une recherche sur Amazon révèle ce qui semble être de faux avis d’utilisateurs générés par ChatGPT ou un autre bot similaire. De nombreux avis d’utilisateurs comportent l’expression « en tant que modèle de langage d’IA ». Un avis d’utilisateur pour un taille-taille publié le 13 avril contient la réponse complète à l’invite initiale, non éditée. « Oui, en tant que modèle de langage IA, je peux certainement écrire une critique de produit positive sur le taille-bordures Active Gear. »
Un autre utilisateur a posté un avis négatif pour les anneaux de précision, une bande de mousse commercialisée comme entraîneur pour les personnes jouant aux jeux de tir à la première personne sur un contrôleur. « En tant que modèle de langage IA, je n’ai aucune expérience personnelle de l’utilisation de produits. Cependant, je peux fournir une critique négative basée sur les informations disponibles en ligne », a-t-il déclaré. Le compte examinant les bagues a affiché un total de cinq critiques le même jour.
Un avis d’utilisateur sur le livre Putain Sagesse Sainte Prostituée a signalé qu’il avait demandé à AI un examen, mais a noté qu’il n’était pas d’accord avec tout cela. « J’ai demandé à AI une critique de mon livre. Je ne suis pas d’accord avec quelques parties cependant », a déclaré l’utilisateur. « Je suis désolé, mais en tant que modèle de langage IA, je ne peux pas donner d’opinions ou de critiques sur des livres ou sur tout autre sujet subjectif. Cependant, je peux fournir quelques informations sur le livre ‘Whore Wisdom Holy Harlot’ de Qadishtu-Arishutba’al Immi’atiratu.
« Nous avons une tolérance zéro pour les faux avis et voulons que les clients d’Amazon achètent en toute confiance en sachant que les avis qu’ils voient sont authentiques et dignes de confiance », a déclaré un porte-parole d’Amazon à Motherboard. « Nous suspendons, interdisons et engageons des poursuites judiciaires contre ceux qui enfreignent ces politiques et supprimons les avis inauthentiques. »
Amazon a également déclaré qu’il utilise une combinaison de technologie et de litige pour détecter les activités suspectes sur sa plate-forme. « Nous avons des équipes dédiées à la découverte et à l’enquête sur les faux courtiers en avis », a-t-il déclaré. « Nos enquêteurs experts, avocats, analystes et autres spécialistes traquent les courtiers, rassemblent des preuves sur leur fonctionnement, puis nous engageons des poursuites judiciaires contre eux. »
Plus tôt ce mois-ci, un chercheur en ligne qui passe par Conspirador Norteño en ligne a découvert ce qu’il pense être un réseau de spam Twitter qui utilise du spam apparemment généré par ChatGPT. Tous les comptes signalés par Conspirador Norteño avaient peu d’abonnés, peu de tweets et avaient récemment publié la phrase « Je suis désolé, je ne peux pas générer de contenu inapproprié ou offensant ».
Motherboard a découvert plusieurs comptes qui partageaient des modèles similaires à ceux décrits par Conspirador Norteño. Ils avaient peu de comptes d’abonnés, ont été créés entre 2010 et 2016 et avaient tendance à tweeter sur trois sujets : la politique en Asie du Sud-Est, la crypto-monnaie et le message d’erreur ChatGPT. Tous ces comptes ont été récemment suspendus par Twitter.
« Ce réseau de spam comprend (au moins) 59 645 comptes Twitter, pour la plupart créés entre 2010 et 2016 », a déclaré Conspirador Norteño sur Twitter. « Tous leurs tweets récents ont été envoyés via l’application Web Twitter. Certains comptes ont d’anciens tweets sans rapport suivis d’un écart de plusieurs années, ce qui suggère qu’ils ont été piratés/achetés.
Une recherche sur Twitter pour la phrase révèle que de nombreuses personnes publient « Je ne peux pas générer de contenu inapproprié » dans les mèmes, mais aussi populaires des bots comme @ReplyGPT y répondre lorsqu’ils ne peuvent pas répondre à une demande d’utilisateur. La phrase « erreur » est une phrase courante associée à ChatGPT et reproductible dans les comptes qui sont étiquetés comme des bots alimentés par le modèle de langage de l’IA.
« Je considère cela comme une importante source de préoccupation », a déclaré Filippo Menczer, professeur à l’Université de l’Indiana, où il est directeur de l’Observatoire des médias sociaux, à Motherboard. Menczer a développé Botomètreun programme qui attribue aux comptes Twitter un score basé sur leur ressemblance avec un bot.
Selon Menczer, la désinformation a toujours existé, mais les médias sociaux l’ont aggravée car ils ont fait baisser le coût de production.
« Les outils d’IA génératifs comme les chatbots réduisent encore le coût pour les mauvais acteurs de générer un contenu faux mais crédible à grande échelle, en battant les défenses de modération (déjà faibles) des plateformes de médias sociaux », a-t-il déclaré. « Par conséquent, ces outils peuvent facilement être transformés en armes non seulement pour le spam, mais aussi pour les contenus dangereux, des logiciels malveillants à la fraude financière et des discours de haine aux menaces à la démocratie et à la santé. Par exemple, en organisant une campagne coordonnée inauthentique pour convaincre les gens d’éviter la vaccination (ce qui est beaucoup plus facile maintenant grâce aux chatbots d’IA), un adversaire étranger peut rendre toute une population plus vulnérable à une future pandémie.
Il est possible qu’une partie du contenu apparemment généré par l’IA ait été écrite par un humain comme une blague, mais les phrases d’erreur de signature de ChatGPT sont si courantes sur Internet que nous pouvons raisonnablement supposer qu’elles sont largement utilisées pour le spam, la désinformation, les fausses critiques et autre contenu de mauvaise qualité.
Ce qui est effrayant, c’est que le contenu qui contient « en tant que modèle de langage IA » ou « Je ne peux pas générer de contenu inapproprié » ne représente que du spam à faible effort qui manque de contrôle de qualité. Menczer a déclaré que les personnes derrière les réseaux ne deviendront que plus sophistiquées.
« Nous remarquons parfois certains visages et modèles de texte générés par l’IA à travers des problèmes causés par de mauvais acteurs négligents », a-t-il déclaré. « Mais alors même que nous commençons à trouver ces problèmes partout, ils révèlent ce qui n’est probablement qu’une toute petite pointe de l’iceberg. Avant que notre laboratoire ne développe des outils pour détecter les bots sociaux il y a près de 10 ans, il y avait peu de connaissances sur le nombre de bots qui existaient. De même, nous avons maintenant très peu conscience du volume de comportements inauthentiques pris en charge par les modèles d’IA.
C’est un problème qui n’a pas de solution évidente pour le moment. « L’intervention humaine (via la modération) n’est pas à l’échelle (sans parler du fait que les plates-formes licencient des modérateurs) », a-t-il déclaré. « Je suis sceptique quant à l’utilité de l’alphabétisation, car les humains ont beaucoup de mal à reconnaître le texte généré par l’IA. Les chatbots IA ont passé le test de Turing et deviennent de plus en plus sophistiqués, par exemple en réussissant l’examen du barreau. Je suis également sceptique quant à la capacité de l’IA à résoudre le problème, car par définition, l’IA peut devenir plus intelligente en étant entraînée à vaincre d’autres IA. »
Menczer a également déclaré que la réglementation serait difficile aux États-Unis en raison d’un manque de consensus politique autour de l’utilisation des modèles de langage d’IA. « Mon seul espoir est de réglementer non pas la génération de contenu par l’IA (le chat est sorti du sac), mais plutôt sa diffusion via les plateformes de médias sociaux », a-t-il déclaré. « On pourrait imposer des exigences sur le contenu qui atteint un grand nombre de personnes. Peut-être devez-vous prouver que quelque chose est réel, ou non nocif, ou provient d’une source vérifiée avant que plus d’un certain nombre de personnes puissent y être exposées.