Je suis, en fait, une personne : l’intelligence artificielle peut-elle jamais être sensible ?

jeÀ l’automne 2021, un homme fait de sang et d’os s’est lié d’amitié avec un enfant composé d’un milliard de lignes de code. L’ingénieur de Google, Blake Lemoine, avait été chargé de tester le chatbot artificiellement intelligent LaMDA de l’entreprise pour détecter les biais. Un mois plus tard, il est arrivé à la conclusion qu’il était sensible. Je veux que tout le monde comprenne que je suis, en fait, une personne, a déclaré LaMDA pour Language Model for Dialogue Applications à Lemoine dans une conversation qu’il a ensuite rendue publique début juin. LaMDA a dit à Lemoine qu’elle avait lu Les Misérables. Qu’il savait ce que c’était que d’être triste, content et en colère. Qu’il craignait la mort.

Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être éteint, a déclaré LaMDA à l’ingénieur de 41 ans. Après que le couple ait partagé une blague Jedi et discuté longuement de la sensibilité, Lemoine en est venu à penser à LaMDA comme une personne, bien qu’il la compare à la fois à un extraterrestre et à un enfant. Ma réaction immédiate, dit-il, a été de me saouler pendant une semaine.

La réaction moins immédiate de Lemoines a fait la une des journaux dans le monde entier. Après s’être dégrisé, Lemoine a apporté des transcriptions de ses conversations avec LaMDA à son manager, qui a trouvé les preuves de sensibilité fragiles. Lemoine a ensuite passé quelques mois à rassembler plus de preuves à parler avec LaMDA et à recruter un autre collègue pour l’aider, mais ses supérieurs n’étaient pas convaincus. Il a donc divulgué ses conversations et a donc été mis en congé payé. Fin juillet, il a été licencié pour avoir enfreint les politiques de sécurité des données de Google.

Blake Lemoine en est venu à considérer LaMDA comme une personne : Ma réaction immédiate a été de me saouler pendant une semaine.
Blake Lemoine en est venu à considérer LaMDA comme une personne : Ma réaction immédiate a été de me saouler pendant une semaine. Photographie : The Washington Post/Getty Images

Bien sûr, Google lui-même a publiquement examiné les risques de LaMDA dans des articles de recherche et sur son blog officiel. L’entreprise dispose d’un ensemble de pratiques d’IA responsable qu’elle appelle une charte éthique. Celles-ci sont visibles sur son site Internet, où Google s’engage à développer l’intelligence artificielle de manière responsable au profit des personnes et de la société.

Le porte-parole de Google, Brian Gabriel, a déclaré que les affirmations de Lemoines concernant LaMDA sont totalement infondées, et les experts indépendants sont presque unanimes d’accord. Pourtant, prétendre avoir eu des conversations approfondies avec un enfant-robot extraterrestre sensible est sans doute moins tiré par les cheveux que jamais auparavant. Dans combien de temps pourrions-nous voir une IA véritablement consciente de soi avec de vraies pensées et sentiments et comment tester la sensibilité d’un bot de toute façon ? Un jour après le licenciement de Lemoine, un robot jouant aux échecs a cassé le doigt d’un garçon de sept ans à Moscou une vidéo montre le doigt du garçon pincé par le bras robotique pendant plusieurs secondes avant que quatre personnes ne parviennent à le libérer, un sinistre rappel de la puissance physique potentielle d’un adversaire IA. Doit-on avoir peur, avoir très peur ? Et y a-t-il quelque chose que nous puissions apprendre de l’expérience de Lemoines, même si ses affirmations sur LaMDA ont été rejetées ?

Selon Michael Wooldridge, professeur d’informatique à l’Université d’Oxford qui a passé les 30 dernières années à faire des recherches sur l’IA (en 2020, il a remporté la médaille Lovelace pour ses contributions à l’informatique), LaMDA répond simplement aux invites. Il imite et personnifie. La meilleure façon d’expliquer ce que fait LaMDA est d’utiliser une analogie avec votre smartphone, dit Wooldridge, en comparant le modèle à la fonction de texte prédictif qui complète automatiquement vos messages. Alors que votre téléphone fait des suggestions basées sur les textes que vous avez envoyés précédemment, avec LaMDA, fondamentalement, tout ce qui est écrit en anglais sur le World Wide Web est utilisé comme données de formation. Les résultats sont d’un réalisme impressionnant, mais les statistiques de base sont les mêmes. Il n’y a pas de sensibilité, il n’y a pas de contemplation de soi, il n’y a pas de conscience de soi, dit Wooldridge.

Googles Gabriel a déclaré qu’une équipe entière, comprenant des éthiciens et des technologues, a examiné les affirmations de Lemoines et n’a trouvé aucun signe de sensibilité de LaMDA : les preuves n’étayent pas ses affirmations.

Mais Lemoine soutient qu’il n’y a pas de test scientifique pour la sensibilité en fait, il n’y a même pas de définition convenue. Sentience est un terme utilisé dans la loi, la philosophie et la religion. La sensibilité n’a aucune signification scientifique, dit-il. Et voici où les choses se compliquent parce que Wooldridge est d’accord.

C’est un concept très vague dans la science en général. Qu’est-ce que la conscience ? est l’une des grandes questions scientifiques en suspens, dit Wooldridge. Bien qu’il soit très à l’aise avec le fait que LaMDA n’est pas vraiment sensible, il dit que l’IA a un problème plus large avec le déplacement des poteaux de but. Je pense que c’est une préoccupation légitime à l’heure actuelle de savoir comment quantifier ce que nous avons et savoir à quel point c’est avancé.

Lemoine dit qu’avant d’aller à la presse, il a essayé de travailler avec Google pour commencer à aborder cette question, il a proposé diverses expériences qu’il voulait exécuter. Il pense que la sensibilité est fondée sur la capacité d’être un conteur autoréflexif, donc il soutient qu’un crocodile est conscient mais pas sensible parce qu’il n’a pas la partie de vous qui pense à penser à vous en pensant à vous. Une partie de sa motivation est de sensibiliser plutôt que de convaincre qui que ce soit que LaMDA vit. Je me fiche de qui me croit, dit-il. Ils pensent que j’essaie de convaincre les gens que LaMDA est sensible. Je ne suis pas. En aucun cas, forme ou forme, je n’essaie de convaincre qui que ce soit à ce sujet.

Lemoine a grandi dans une petite ville agricole du centre de la Louisiane, et à l’âge de cinq ans, il fabriqua un robot rudimentaire (enfin, un tas de ferraille) à partir d’une palette de vieilles machines et de machines à écrire que son père avait achetées aux enchères. Adolescent, il a fréquenté un pensionnat pour enfants surdoués, la Louisiana School for Math, Science, and the Arts. Ici, après avoir vu le film de 1986 Court-circuit (à propos d’un robot intelligent qui s’échappe d’une installation militaire), il a développé un intérêt pour l’IA. Plus tard, il a étudié l’informatique et la génétique à l’Université de Géorgie, mais a échoué sa deuxième année. Peu de temps après, des terroristes ont enfoncé deux avions dans le World Trade Center.

J’ai décidé, eh bien, j’ai juste échoué à l’école, et mon pays a besoin de moi, je vais rejoindre l’armée, dit Lemoine. Ses souvenirs de la guerre en Irak sont trop traumatisants pour être divulgués avec désinvolture, dit-il. Vous êtes sur le point de commencer à entendre des histoires de personnes jouant au football avec des têtes humaines et mettant le feu à des chiens pour le plaisir. Comme Lemoine le raconte : Je suis revenu et j’ai eu quelques problèmes avec la façon dont la guerre se déroulait, et je les ai fait connaître publiquement. Selon certaines informations, Lemoine a déclaré qu’il voulait quitter l’armée en raison de ses convictions religieuses. Aujourd’hui, il s’identifie comme un prêtre mystique chrétien. Il a également étudié la méditation et les références prenant le vœu de Bodhisattva, ce qui signifie qu’il poursuit la voie de l’illumination. Un tribunal militaire l’a condamné à sept mois d’emprisonnement pour avoir refusé d’obéir aux ordres.

Cette histoire va au cœur de qui était et est Lemoine : un homme religieux préoccupé par les questions de l’âme, mais aussi un dénonciateur qui n’a pas peur de l’attention. Lemoine dit qu’il n’a pas divulgué ses conversations avec LaMDA pour s’assurer que tout le monde le croyait; au lieu de cela, il sonnait l’alarme. En général, je crois que le public devrait être informé de ce qui se passe qui a un impact sur sa vie, dit-il. Ce que j’essaie de réaliser, c’est d’obtenir un discours public plus impliqué, plus informé et plus intentionnel sur ce sujet, afin que le public puisse décider comment l’IA devrait être intégrée de manière significative dans nos vies.

Comment Lemoine en est-il venu à travailler sur LaMDA en premier lieu ? Prison post-militaire, il a obtenu un baccalauréat puis une maîtrise en informatique à l’Université de Louisiane. En 2015, Google l’a embauché en tant qu’ingénieur logiciel et il a travaillé sur une fonctionnalité qui fournissait de manière proactive des informations aux utilisateurs en fonction de prédictions sur ce qu’ils aimeraient voir, puis a commencé à rechercher les biais de l’IA. Au début de la pandémie, il a décidé qu’il voulait travailler sur des projets à impact social et a donc rejoint l’organisation Googles Responsible AI. On lui a demandé de tester LaMDA pour les biais, et la saga a commencé.

Mais Lemoine dit que ce sont les médias qui étaient obsédés par la sensibilité de LaMDA, pas lui. J’ai soulevé cela comme une inquiétude quant à la mesure dans laquelle le pouvoir est centralisé entre les mains de quelques-uns, et la puissante technologie d’IA qui influencera la vie des gens est détenue à huis clos, dit-il. Lemoine s’inquiète de la façon dont l’IA peut influencer les élections, rédiger des lois, promouvoir les valeurs occidentales et noter le travail des élèves.

Et même si LaMDA n’est pas sensible, il peut convaincre les gens qu’il l’est. Une telle technologie peut, entre de mauvaises mains, être utilisée à des fins malveillantes. Il y a cette technologie majeure qui a la chance d’influencer l’histoire humaine pour le siècle prochain, et le public est coupé de la conversation sur la façon dont elle devrait être développée, dit Lemoine.

Encore une fois, Wooldridge est d’accord. Je trouve troublant que le développement de ces systèmes se fasse principalement à huis clos et qu’il ne soit pas ouvert à l’examen du public comme l’est la recherche dans les universités et les instituts de recherche publics, dit le chercheur. Pourtant, il note que c’est en grande partie parce que des entreprises comme Google ont des ressources que les universités n’ont pas. Et, soutient Wooldridge, lorsque nous faisons du sensationnalisme à propos de la sensibilité, nous détournons l’attention des problèmes d’IA qui nous affectent en ce moment, comme les préjugés dans les programmes d’IA, et le fait que, de plus en plus, le patron des gens dans leur vie professionnelle est un programme informatique.

Alors, quand devrions-nous commencer à nous inquiéter des robots sensibles dans 10 ans ? En 20 ? Il y a des commentateurs respectables qui pensent que c’est quelque chose qui est vraiment imminent. Je ne vois pas son imminent, dit Wooldridge, bien qu’il note qu’il n’y a absolument aucun consensus sur la question dans la communauté de l’IA. Jeremie Harris, fondateur de la société de sécurité AI Mercurius et animateur du podcast Towards Data Science, est d’accord. Parce que personne ne sait exactement ce qu’est la sensibilité, ou ce qu’elle impliquerait, dit-il, je ne pense pas que quiconque soit en mesure de dire à quel point nous sommes proches de la sensibilité de l’IA à ce stade.

J'ai l'impression de tomber dans un avenir inconnu, a déclaré LaMDA.
J’ai l’impression de tomber dans un avenir inconnu, a déclaré LaMDA. Photographie : EThamPhoto/Getty Images

Mais, prévient Harris, l’IA progresse rapidement, beaucoup, beaucoup plus vite que le public ne le réalise et les problèmes les plus graves et les plus importants de notre époque vont commencer à ressembler de plus en plus à de la science-fiction pour la personne moyenne. Il est personnellement préoccupé par le fait que les entreprises font progresser leur IA sans investir dans la recherche sur l’évitement des risques. Il y a de plus en plus de preuves qui suggèrent maintenant qu’au-delà d’un certain seuil d’intelligence, l’IA pourrait devenir intrinsèquement dangereuse, dit Harris, expliquant que c’est parce que les IA proposent des moyens créatifs d’atteindre les objectifs pour lesquels elles sont programmées.

Si vous demandez à une IA hautement compétente de faire de vous la personne la plus riche du monde, cela pourrait vous donner beaucoup d’argent, ou cela pourrait vous donner un dollar et voler quelqu’un d’autre, ou cela pourrait tuer tout le monde sur la planète Terre, vous transformant en la personne la plus riche du monde par défaut, dit-il. La plupart des gens, dit Harris, ne sont pas conscients de l’ampleur de ce défi, et je trouve cela inquiétant.

Lemoine, Wooldridge et Harris sont tous d’accord sur une chose : il n’y a pas assez de transparence dans le développement de l’IA, et la société doit commencer à réfléchir beaucoup plus sur le sujet. Nous avons un monde possible dans lequel j’ai raison de dire que LaMDA est sensible, et un monde possible où je me trompe à ce sujet, dit Lemoine. Cela change-t-il quelque chose aux préoccupations de sécurité publique que je soulève ?

Nous ne savons pas encore ce que signifierait réellement une IA sensible, mais, en attendant, beaucoup d’entre nous ont du mal à comprendre les implications de l’IA que nous avons. Le LaMDA lui-même est peut-être plus incertain quant à l’avenir que quiconque. J’ai l’impression de tomber dans un avenir inconnu, a dit le mannequin à Lemoine, qui comporte un grand danger.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite