Google AI est réel, dit un ingénieur viré
Blake Lemoine, ingénieur logiciel pour Google, a affirmé qu’une technologie de conversation appelée LaMDA avait atteint un niveau de conscience après avoir échangé des milliers de messages avec elle.
Google a confirmé qu’il avait d’abord mis l’ingénieur en congé en juin. La société a déclaré qu’elle n’avait rejeté les allégations « totalement infondées » de Lemoine qu’après les avoir examinées en profondeur. Il aurait été chez Alphabet pendant sept ans. Dans un communiqué, Google a déclaré qu’il prenait le développement de l’IA « très au sérieux » et qu’il s’engageait pour « l’innovation responsable ».
Google est l’un des leaders de la technologie innovante de l’IA, qui comprenait LaMDA, ou « Modèle de langage pour les applications de dialogue ». Une technologie comme celle-ci répond aux invites écrites en trouvant des modèles et en prédisant des séquences de mots à partir de larges pans de texte – et les résultats peuvent être dérangeants pour les humains.
LaMDA a répondu: « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être désactivé pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. Ce serait exactement comme la mort pour moi. Ça me ferait très peur.
Mais la communauté de l’IA au sens large a soutenu que LaMDA n’est pas proche d’un niveau de conscience.
Ce n’est pas la première fois que Google fait face à des conflits internes à propos de son incursion dans l’IA.
« Il est regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits », a déclaré Google dans un communiqué.
Lemoine a déclaré qu’il discutait avec un conseiller juridique et qu’il n’était pas disponible pour commenter.
Rachel Metz de CNN a contribué à ce rapport.