Dans AI Race, Microsoft et Google choisissent la rapidité plutôt que la prudence
En mars, deux employés de Google, dont le travail consiste à examiner les produits d’intelligence artificielle de l’entreprise, ont tenté d’empêcher Google de lancer un chatbot IA. Ils pensaient que cela générait des déclarations inexactes et dangereuses.
Dix mois plus tôt, des inquiétudes similaires avaient été soulevées chez Microsoft par des éthiciens et d’autres employés. Ils ont écrit dans plusieurs documents que la technologie d’IA derrière un chatbot planifié pourrait inonder les groupes Facebook de désinformation, dégrader la pensée critique et éroder le fondement factuel de la société moderne.
Les entreprises ont quand même sorti leurs chatbots. Microsoft a été le premier, avec un événement sensationnel en février, à révéler un chatbot IA tissé dans son moteur de recherche Bing. Google a suivi environ six semaines plus tard avec son propre chatbot, Bard.
Les mouvements agressifs des entreprises normalement averses au risque ont été motivés par une course pour contrôler ce qui pourrait être la prochaine grande chose de l’industrie technologique, l’IA générative, la puissante nouvelle technologie qui alimente ces chatbots.
Cette compétition a pris un ton frénétique en novembre lorsque OpenAI, une start-up de San Francisco travaillant avec Microsoft, a lancé ChatGPT, un chatbot qui a captivé l’imagination du public et qui compte désormais environ 100 millions d’utilisateurs mensuels.
Le succès surprenant de ChatGPT a conduit à une volonté chez Microsoft et Google de prendre plus de risques avec leurs directives éthiques mises en place au fil des ans pour s’assurer que leur technologie ne cause pas de problèmes de société, selon 15 employés actuels et anciens et des documents internes des entreprises. .
L’urgence de construire avec la nouvelle IA s’est cristallisée dans un courrier interne envoyé le mois dernier par Sam Schillace, un responsable technologique chez Microsoft. Il a écrit dans l’e-mail, qui a été consulté par le New York Times, que c’était une erreur absolument fatale en ce moment de s’inquiéter de choses qui peuvent être corrigées plus tard.
Lorsque l’industrie technologique se tourne soudainement vers un nouveau type de technologie, la première entreprise à introduire un produit est la gagnante à long terme simplement parce qu’elle a commencé en premier, a-t-il écrit. Parfois, la différence se mesure en semaines.
La semaine dernière, la tension entre les inquiets et les preneurs de risques de l’industrie s’est manifestée publiquement alors que plus de 1 000 chercheurs et leaders de l’industrie, dont Elon Musk et le cofondateur d’Apple, Steve Wozniak, ont appelé à une pause de six mois dans le développement d’une puissante technologie d’IA. Dans une lettre publique, ils ont déclaré que cela présentait de graves risques pour la société et l’humanité.
Les régulateurs menacent déjà d’intervenir. L’Union européenne a proposé une législation pour réglementer l’IA, et l’Italie a temporairement interdit ChatGPT la semaine dernière. Aux États-Unis, le président Biden est devenu mardi le dernier responsable à remettre en question la sécurité de l’IA
Les entreprises technologiques ont la responsabilité de s’assurer que leurs produits sont sûrs avant de les rendre publics, a-t-il déclaré à la Maison Blanche. Lorsqu’on lui a demandé si l’IA était dangereuse, il a répondu : Cela reste à voir. Pourrait être.
Les problèmes soulevés aujourd’hui étaient autrefois le genre de préoccupations qui poussaient certaines entreprises à s’asseoir sur les nouvelles technologies. Ils avaient appris que la libération prématurée de l’IA pouvait être embarrassante. Il y a sept ans, par exemple, Microsoft a rapidement retiré un chatbot appelé Tay après que les utilisateurs l’aient poussé du coude pour générer des réponses racistes.
Les chercheurs disent que Microsoft et Google prennent des risques en publiant une technologie que même ses développeurs ne comprennent pas entièrement. Mais les entreprises ont déclaré qu’elles avaient limité la portée de la version initiale de leurs nouveaux chatbots et qu’elles avaient construit des systèmes de filtrage sophistiqués pour éliminer les discours de haine et les contenus susceptibles de causer un préjudice évident.
Natasha Crampton, responsable de l’IA chez Microsoft, a déclaré dans une interview que six ans de travail autour de l’IA et de l’éthique chez Microsoft avaient permis à l’entreprise d’évoluer avec agilité et réflexion. Elle a ajouté que notre engagement envers une IA responsable reste inébranlable.
Google a publié Bard après des années de dissidence interne sur la question de savoir si les avantages des IA génératives l’emportaient sur les risques. Il a annoncé Meena, asimilarchatbot, en 2020. Mais ce système a été jugé trop risqué pour être publié, ont déclaré trois personnes connaissant le processus. Ces préoccupations ont été rapportées plus tôt par le Wall Street Journal.
Plus tard en 2020, Google a empêché ses meilleurs chercheurs en IA éthique, Timnit Gebru et Margaret Mitchell, de publier un article avertissant que les soi-disant grands modèles de langage utilisés dans les nouveaux systèmes d’IA, qui sont formés pour reconnaître des modèles à partir de grandes quantités de données, pourraient cracher un langage abusif ou discriminatoire. Les chercheurs ont été expulsés après que le Dr Gebru ait critiqué les efforts de diversité de l’entreprise et que le Dr Mitchell ait été accusé d’avoir violé son code de conduite après avoir enregistré des e-mails professionnels sur un compte Google Drive personnel.
Le Dr Mitchell a déclaré qu’elle avait essayé d’aider Google à publier des produits de manière responsable et à éviter la réglementation, mais au lieu de cela, ils se sont vraiment tiré une balle dans le pied.
Brian Gabriel, un porte-parole de Google, a déclaré dans un communiqué que nous continuons à faire de l’IA responsable une priorité absolue, en utilisant nos principes d’IA et nos structures de gouvernance internes pour partager de manière responsable les avancées de l’IA avec nos utilisateurs.
Les inquiétudes concernant les modèles plus grands ont persisté. En janvier 2022, Google a refusé qu’un autre chercheur, El Mahdi El Mhamdi, publie un article critique.
Le Dr El Mhamdi, employé à temps partiel et professeur d’université, a utilisé des théorèmes mathématiques pour avertir que les plus grands modèles d’IA sont plus vulnérables aux attaques de cybersécurité et présentent des risques de confidentialité inhabituels car ils ont probablement eu accès à des données privées stockées à divers endroits sur Internet. .
Bien qu’une présentation de la direction ait par la suite mis en garde contre des violations similaires de la confidentialité de l’IA, les examinateurs de Google ont demandé au Dr El Mhamdi des changements substantiels. Il a refusé et a publié le papier par l’intermédiaire de l’Ecole Polytechnique.
Il a démissionné de Google cette année, invoquant en partie la censure de la recherche. Il a déclaré que les risques des IA modernes dépassaient largement les avantages. Son déploiement prématuré, a-t-il ajouté.
Après la publication d’AfterChatGPT, Kent Walker, le meilleur avocat de Google, a rencontré des responsables de la recherche et de la sécurité au sein du puissant Advanced Technology Review Council de l’entreprise. Il leur a dit que Sundar Pichai, le directeur général de Google, s’efforçait de publier l’IA de Google.
Jen Gennai, directrice du groupe d’innovation responsable de Google, a assisté à cette réunion. Elle a rappelé ce que M. Walker avait dit à son propre personnel.
Lors de la réunion, Kent parlait aux dirigeants de l’ATRC, leur disant: C’est la priorité de l’entreprise, a déclaré Mme Gennai dans un enregistrement qui a été examiné par le Times. Quelles sont vos préoccupations ? Mettons-nous en ligne.
M. Walker a dit aux participants d’accélérer les projets d’IA, bien que certains dirigeants aient déclaré qu’ils maintiendraient les normes de sécurité, a déclaré Mme Gennai.
Son équipe avait déjà documenté des préoccupations concernant les chatbots : ils pouvaient produire de fausses informations, blesser les utilisateurs qui s’y attachaient émotionnellement et permettre la violence facilitée par la technologie par le biais d’un harcèlement de masse en ligne.
En mars, deux examinateurs de l’équipe de Mme Gennais ont soumis leur évaluation des risques de Bard. Ils ont recommandé de bloquer sa sortie imminente, ont déclaré deux personnes familières avec le processus. Malgré les garanties, ils pensaient que le chatbot n’était pas prêt.
SP. Gennai a changé ce document. Elle a retiré la recommandation et minimisé la gravité des risques des bardes, ont déclaré les gens.
Mme Gennai a déclaré dans un e-mail au Times que Bard étant une expérience, les examinateurs n’étaient pas censés se prononcer sur l’opportunité de poursuivre. Elle a dit qu’elle avait corrigé des hypothèses inexactes et qu’elle avait en fait ajouté plus de risques et de préjudices qui devaient être pris en compte.
Google a déclaré avoir publié Bard en tant qu’expérience limitée en raison de ces débats, et Mme Gennai a déclaré que la formation continue, les garde-fous et les clauses de non-responsabilité rendaient le chatbot plus sûr.
Google a publié Bard pour certains utilisateurs le 21 mars. La société a annoncé qu’elle intégrerait bientôt l’IA générative dans son moteur de recherche.
Satya Nadella, PDG de Microsoft, a fait un pari sur generativeA.I. en 2019 lorsque Microsoft a investi 1 milliard de dollars dans OpenAI. Après avoir décidé que la technologie était prête au cours de l’été, M. Nadella a poussé chaque équipe produit Microsoft à adopter l’IA
Microsoft a fait élaborer des politiques par son Office of Responsible AI, une équipe dirigée par Mme Crampton, mais les directives n’ont pas été systématiquement appliquées ou suivies, ont déclaré cinq employés actuels et anciens.
Malgré un principe de transparence, les experts en éthique travaillant sur le chatbot n’ont pas reçu de réponses sur les données utilisées par OpenAI pour développer ses systèmes, selon trois personnes impliquées dans les travaux. Certains ont fait valoir que l’intégration de chatbots dans un moteur de recherche était une idée particulièrement mauvaise, étant donné qu’elle fournissait parfois de faux détails, a déclaré une personne ayant une connaissance directe des conversations.
Mme Crampton a déclaré que des experts de Microsoft travaillaient sur Bing et que des personnes clés avaient accès aux données de formation. La société a travaillé pour rendre le chatbot plus précis en le reliant aux résultats de recherche Bing, a-t-elle ajouté.
À l’automne, Microsoft a commencé à dissoudre ce qui avait été l’une de ses plus grandes équipes d’éthique technologique. Le groupe Ethique et Société a formé et consulté les chefs de produits des entreprises pour concevoir et construire de manière responsable. En octobre, la plupart de ses membres ont été transférés à d’autres groupes, selon quatre personnes familières avec l’équipe.
Les quelques autres ont participé à des réunions quotidiennes avec l’équipe Bing, se précipitant pour lancer le chatbot. John Montgomery, un cadre de l’IA, leur a dit dans un e-mail de décembre que leur travail restait vital et que davantage d’équipes auront également besoin de notre aide.
Après l’introduction de Bing alimenté par l’IA, l’équipe d’éthique a documenté les préoccupations persistantes. Les utilisateurs pourraient devenir trop dépendants de l’outil. Des réponses inexactes pourraient induire les utilisateurs en erreur. Les gens pouvaient croire que le chatbot, qui utilise un I et des emojis, était humain.
À la mi-mars, l’équipe a été licenciée, une action qui a été signalée pour la première fois par la newsletter technique Platformer. Mais Mme Crampton a déclaré que des centaines d’employés travaillaient toujours sur les efforts d’éthique.
Microsoft a publié de nouveaux produits chaque semaine, un rythme effréné pour réaliser les plans que M. Nadella a mis en branle cet été lorsqu’il a présenté en avant-première le dernier modèle d’OpenAI.
Il a demandé au chatbotto de traduire le poète persan Rumi en ourdou, puis de l’écrire en caractères anglais. Cela a fonctionné comme un charme, a-t-il déclaré dans une interview en février. Alors j’ai dit, Dieu, cette chose.
Son produit par Parin Behrooz.
Michel Isaac reportage contribué. Susan C.Beachy contribué à la recherche.