Sur internet, personne ne sait que tu es un humain
En avril dernier, Nicole, 27 ans, a publié une vidéo TikTok sur le fait de se sentir épuisée dans sa carrière. Quand elle a vérifié les commentaires le lendemain, cependant, une conversation différente se déroulait.
Bon sang, ce n’est pas un vrai humain, a écrit un commentateur. J’ai peur.
Pas d’IA légitime, a déclaré un autre.
Nicole, qui vit en Allemagne, souffre d’alopécie. C’est une condition qui peut entraîner la perte de cheveux dans le corps d’une personne. Pour cette raison, elle est habituée à ce que les gens la regardent étrangement, essayant de comprendre ce qui ne va pas, dit-elle lors d’un appel vidéo. Mais je n’ai jamais eu cette conclusion, que [I] doit être CGI ou autre.
Au cours des dernières années, les outils d’IA et les créations CGI sont devenus de mieux en mieux capables de prétendre être humains. Le nouveau chatbot de Bing tombe amoureux, et des influenceurs comme CodeMiko et Lil Miquela nous demandent de traiter un éventail de personnages numériques comme de vraies personnes. Mais alors que les outils pour se faire passer pour l’humanité deviennent de plus en plus réalistes, les créateurs humains en ligne se retrouvent parfois dans une situation inhabituelle : on leur demande de prouver qu’ils sont réels.
Presque tous les jours, une personne est invitée à prouver sa propre humanité à un ordinateur
Presque chaque jour, une personne est invitée à prouver sa propre humanité à un ordinateur. En 1997, des chercheurs de la société de technologie de l’information Sanctum ont inventé une première version de ce que nous connaissons maintenant sous le nom de CAPTCHA afin de faire la distinction entre l’action automatique informatisée et l’action humaine. L’acronyme, inventé plus tard par des chercheurs de l’Université Carnegie Mellon et d’IBM en 2003, remplace le test quelque peu volumineux de Turing public complètement automatisé pour distinguer les ordinateurs des humains. Les CAPTCHA sont utilisés pour empêcher les bots de faire des choses comme s’inscrire en masse à des adresses e-mail, envahir des sites Web de commerce ou infiltrer des sondages en ligne. Ils demandent à chaque utilisateur d’identifier une série de lettres masquées ou parfois simplement de cocher une case : Je ne suis pas un robot.
Cette pratique relativement bénigne prend une nouvelle signification en 2023 lorsque la montée en puissance des outils OpenAI comme DALL-E et ChatGPT a étonné et effrayé leurs utilisateurs. Ces outils peuvent produire des arts visuels complexes et produire des essais lisibles à l’aide de quelques mots-clés fournis par l’homme. ChatGPT compte 30 millions d’utilisateurs et environ 5 millions de visites par jour, selon Le New York Times. Des entreprises comme Microsoft et Google se sont précipitées pour annoncer leurs propres concurrents.
Il n’est donc pas étonnant que la paranoïa de l’IA chez les humains soit à un niveau record. Ces comptes qui viennent de vous DM salut sur Twitter? Robots. Cette personne qui a aimé toutes les photos Instagram que vous avez publiées au cours des deux dernières années ? Un robot. Un profil que vous rencontrez sans cesse sur toutes les applications de rencontres, peu importe combien de fois vous balayez vers la gauche ? Probablement aussi un bot.
Plus que jamais, nous ne savions pas si nous pouvions faire confiance à ce que nous voyons sur Internet
L’accusation selon laquelle quelqu’un est un bot est devenue une sorte de chasse aux sorcières parmi les utilisateurs de médias sociaux, utilisée pour discréditer ceux avec qui ils ne sont pas d’accord en insistant sur le fait que leur point de vue ou leur comportement n’est pas suffisamment légitime pour bénéficier d’un réel soutien. Par exemple, les partisans des deux côtés du procès Johnny Depp et Amber Heard ont affirmé que le support en ligne pour l’autre était au moins quelque peu composé de comptes de robots. Plus que jamais, nous ne savions pas si nous pouvions faire confiance à ce que nous voyons sur Internet et les vraies personnes en paient le prix.
Pour Danisha Carter, une TikToker qui partage des commentaires sociaux, les spéculations quant à savoir si elle était ou non une humaine ont commencé alors qu’elle n’avait que 10 000 abonnés TikTok. Les téléspectateurs ont commencé à lui demander si elle était un androïde, l’accusant de dégager des vibrations d’IA et lui demandant même de se filmer en train de faire un CAPTCHA. Je pensais que c’était plutôt cool, a-t-elle admis lors d’un appel vidéo.
J’ai une esthétique très organisée et spécifique, dit-elle. Cela inclut l’utilisation du même cadrage pour chaque vidéo et souvent les mêmes vêtements et coiffures. Danisha essaie également de rester mesurée et objective dans son commentaire, ce qui rend également les téléspectateurs méfiants. La plupart des vidéos TikTok des gens sont décontractées. Ils ne sont pas organisés, ce sont des photos de tout le corps, ou du moins vous les voyez se déplacer et s’engager dans des activités qui ne sont pas simplement assis devant la caméra.
Après être devenue virale pour la première fois, Nicole a tenté de répondre à ses accusateurs en expliquant son alopécie et en soulignant des qualités humaines comme ses lignes de bronzage dues au port de perruques. Les commentateurs ne l’ont pas acheté.
Les gens viendraient avec des théories entières dans les commentaires, [they] dirait, Hé, regarde cette seconde de ça. Vous pouvez totalement voir la vidéo glitching, dit-elle. Ou vous pouvez la voir glisser. Et c’était tellement drôle parce que j’allais là-bas et que je le regardais et que je me disais, de quoi diable parlez-vous? Parce que je sais que je suis réel.
Plus les gens utilisent des ordinateurs pour prouver qu’ils sont humains, plus les ordinateurs sont intelligents pour les imiter
Mais il n’y a aucun moyen pour Nicole de le prouver car comment prouver sa propre humanité ? Alors que les outils d’intelligence artificielle se sont accélérés de façon exponentielle, notre meilleure méthode pour prouver que quelqu’un est bien celui qu’il prétend être est encore quelque chose de rudimentaire, comme lorsqu’une célébrité publie une photo avec un signe manuscrit pour un Reddit AMA ou, attendez, est qu’eux, ou est-ce juste un deepfake ?
Alors que des développeurs comme OpenAI lui-même ont publié des outils de classification pour détecter si un morceau de texte a été écrit par une IA, toute avancée dans les outils CAPTCHA a un défaut fatal : plus les gens utilisent des ordinateurs pour prouver qu’ils sont humains, plus les ordinateurs sont intelligents pour les imiter. Chaque fois qu’une personne passe un test CAPTCHA, elle fournit une donnée que l’ordinateur peut utiliser pour apprendre à faire la même chose. En 2014, Google a découvert qu’une IA pouvait résoudre les CAPTCHA les plus compliqués avec une précision de 99 %. Humains? Seulement 33 pour cent.
Les ingénieurs ont donc rejeté le texte au profit des images, demandant à la place aux humains d’identifier des objets du monde réel dans une série d’images. Vous pourrez peut-être deviner ce qui s’est passé ensuite : les ordinateurs ont appris à identifier des objets du monde réel dans une série d’images.
Nous étions maintenant dans une ère de CAPTCHA omniprésent appelé No CAPTCHA reCAPTCHA, c’est plutôt un test invisible qui s’exécute en arrière-plan des sites Web participants et détermine notre humanité en fonction de notre propre comportement, quelque chose, éventuellement, les ordinateurs seront également plus intelligents.
Melanie Mitchell, scientifique, professeure et auteure de Intelligence artificielle : un guide pour les humains pensants, caractérise la relation entre CAPTCHA et l’IA comme une course aux armements sans fin. Plutôt que d’espérer un seul test de Turing en ligne, Mitchell dit que ce push-and-pull va devenir une réalité. Les fausses accusations de robots contre les humains deviendront monnaie courante, plus qu’une simple situation difficile en ligne, mais un problème réel.
Imaginez si vous êtes un élève du secondaire et que vous rendez votre devoir et que l’enseignant dit : Le détecteur d’IA a dit que cela avait été écrit par un système d’IA. Échec, dit Mitchell. C’est presque un problème insoluble en utilisant uniquement la technologie. Je pense donc qu’il va falloir qu’il y ait une sorte de réglementation légale et sociale de ces [AI tools].
Ces eaux technologiques troubles sont exactement la raison pour laquelle Danisha est ravie que ses abonnés soient si sceptiques. Elle joue maintenant dans la paranoïa et fait de la nature étrange de ses vidéos une partie de sa marque.
C’est vraiment important que les gens regardent des profils comme le mien et disent, est-ce réel ? elle dit. Si ce n’est pas réel, qui le code ? Qui le fabrique ? Quelles incitations ont-ils ?
Ou peut-être que c’est juste ce que l’IA a appelé Danisha veut vous de penser.