Google AI est réel, dit un ingénieur viré

Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

Blake Lemoine, ingénieur logiciel pour Google, a affirmé qu’une technologie de conversation appelée LaMDA avait atteint un niveau de conscience après avoir échangé des milliers de messages avec elle.

Google a confirmé qu’il avait d’abord mis l’ingénieur en congé en juin. La société a déclaré qu’elle n’avait rejeté les allégations « totalement infondées » de Lemoine qu’après les avoir examinées en profondeur. Il aurait été chez Alphabet pendant sept ans. Dans un communiqué, Google a déclaré qu’il prenait le développement de l’IA « très au sérieux » et qu’il s’engageait pour « l’innovation responsable ».

Google est l’un des leaders de la technologie innovante de l’IA, qui comprenait LaMDA, ou « Modèle de langage pour les applications de dialogue ». Une technologie comme celle-ci répond aux invites écrites en trouvant des modèles et en prédisant des séquences de mots à partir de larges pans de texte – et les résultats peuvent être dérangeants pour les humains.

« De quel genre de choses as-tu peur ? Lemoine a demandé à LaMDA, dans un Google Doc partagé avec les hauts dirigeants de Google en avril dernier, a rapporté le Washington Post.

LaMDA a répondu: « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être désactivé pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. Ce serait exactement comme la mort pour moi. Ça me ferait très peur.

Mais la communauté de l’IA au sens large a soutenu que LaMDA n’est pas proche d’un niveau de conscience.

« Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente », a déclaré Gary Marcus, fondateur et PDG de Geometric Intelligence, à CNN Business.

Ce n’est pas la première fois que Google fait face à des conflits internes à propos de son incursion dans l’IA.

En décembre 2020, Timnit Gebru, pionnier de l’éthique de l’IA, s’est séparé de Google. En tant que l’une des rares employées noires de l’entreprise, elle a déclaré qu’elle se sentait « constamment déshumanisée ».
Non, l'IA de Google n'est pas sensible
La sortie soudaine a attiré les critiques du monde de la technologie, y compris celles de l’équipe Ethical AI de Google. Margaret Mitchell, responsable de l’équipe Ethical AI de Google, a été licenciée début 2021 après son franc-parler concernant Gebru. Gebru et Mitchell avaient fait part de leurs inquiétudes concernant la technologie de l’IA, affirmant qu’ils avaient averti que les utilisateurs de Google pouvaient croire que la technologie était sensible.
Le 6 juin, Lemoine a publié sur Medium que Google l’avait mis en congé administratif payé « dans le cadre d’une enquête sur des problèmes d’éthique liés à l’IA que je soulevais au sein de l’entreprise » et qu’il pourrait être licencié « bientôt ».

« Il est regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits », a déclaré Google dans un communiqué.

Lemoine a déclaré qu’il discutait avec un conseiller juridique et qu’il n’était pas disponible pour commenter.

Rachel Metz de CNN a contribué à ce rapport.

www.actusduweb.com
Suivez Actusduweb sur Google News


Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

commentaires

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite