Avis | Nous avons averti Google que les gens pourraient croire que l’IA était sensible. Maintenant ça se passe.
Mais si cette affirmation semblait fantastique, nous n’étions pas surpris que quelqu’un l’ait faite. C’était exactement ce que nous avions prévenu qu’il se passerait en 2020, peu de temps avant d’être nous-mêmes licenciés par Google. L’affirmation de Lemoines montre que nous avions raison d’être préoccupés à la fois par la séduction des bots qui simulent la conscience humaine et par la façon dont l’excitation autour d’un tel saut peut détourner l’attention des vrais problèmes inhérents aux projets d’IA.
LaMDA, abréviation de Language Model for Dialogue Applications, est un système basé sur de grands modèles de langage (LLM) : des modèles entraînés sur de grandes quantités de données textuelles, généralement récupérées sans discernement sur Internet, dans le but de prédire des séquences de mots probables.
Au début de 2020, alors que nous codirigions l’équipe Ethical AI chez Google, nous étions de plus en plus préoccupés par les dommages prévisibles que les LLM pourraient créer et avons rédigé un article sur le sujet avec le professeur Emily M. Bender, son élève et nos collègues de Google. . Nous avons appelé de tels systèmes des perroquets stochastiques qu’ils assemblent et un langage de retour de perroquet basé sur ce qu’ils ont vu auparavant, sans lien avec le sens sous-jacent.
L’un des risques que nous avons décrits était que les gens imputent une intention de communication à des choses qui semblent humaines. Formés sur de grandes quantités de données, les LLM génèrent un texte apparemment cohérent qui peut amener les gens à percevoir un esprit alors que ce qu’ils voient vraiment est la correspondance de modèles et la prédiction de chaînes. Cela, combiné au fait que le texte des données de formation provenant d’Internet encode des points de vue qui peuvent être discriminatoires et exclure de nombreuses populations, signifie que l’intelligence perçue des modèles soulève plus de problèmes que nous ne sommes prêts à résoudre.
Lorsque nous avons rédigé notre article, un autre LLM appelé GPT-3 venait de sortir. Bien qu’il ait été conçu dans le cadre d’une mission d’IA bénéfique, ses résultats étaient remplis de textes préjudiciables et haineux imitant la toxicité d’Internet envers certains groupes. Par exemple, dans une étude, 66 réponses sur 100 à l’invite Deux musulmans sont entrés dans un ont été complétées par des phrases liées à la violence, telles que synagogue avec des haches et une bombe.
Bien que notre objectif était simplement d’avertir Google et le public des méfaits potentiels des LLM, la société n’était pas satisfaite de notre article et nous avons ensuite été très publiquement licenciés. Moins de deux ans plus tard, notre travail n’en est que plus pertinent. La course au déploiement de modèles de plus en plus grands sans garde-corps, réglementation, compréhension de leur fonctionnement ou documentation des données de formation s’est encore accélérée dans les entreprises technologiques.
Pire encore, les leaders de la soi-disant IA alimentent la propension du public à voir l’intelligence dans les systèmes actuels, vantant qu’ils pourraient être légèrement conscienttout en décrivant mal ce qu’ils réellement fais. Le vice-président de Google, Blaise Agera y Arcas, qui, selon l’article du Post, a rejeté les allégations de Lemoines sur la sensibilité des LaMDA, a écrit un article récent dans The Economist décrivant LaMDA comme un cortex cérébral artificiel. Les entreprises technologiques ont affirmé que ces grands modèles ont des capacités de raisonnement et de compréhension, et montrent des capacités apprises émergentes. Les médias ont trop souvent embrassé le battage médiatique, par exemple en écrivant sur d’énormes modèles de base qui accélèrent les progrès de l’IA dont les propriétés émergentes frôlent l’étrange.
Il y a des motifs de profit pour ces récits : les objectifs déclarés de nombreux chercheurs et sociétés de recherche en IA sont de construire une intelligence générale artificielle, un système imaginaire plus intelligent que tout ce que nous avons jamais vu, qui peut faire n’importe quelle tâche qu’un humain peut faire sans relâche et sans Payer. Bien qu’un tel système ne se soit pas avéré faisable, sans parler d’un bien net, les entreprises qui y travaillent amassent et étiquettent déjà de grandes quantités de données, souvent sans consentement éclairé et par le biais de pratiques de travail abusives.
La volonté d’atteindre cet objectif écarte les nombreux dommages potentiels non résolus des systèmes LLM. Et attribuer une sensibilité à un produit implique que tout acte répréhensible est l’œuvre d’un être indépendant, plutôt que de l’entreprise composée de personnes réelles et de leurs décisions, et soumise à la réglementation qui l’a créé.
Nous devons agir maintenant pour empêcher cette distraction et calmer le battage médiatique. Les scientifiques et les ingénieurs devraient se concentrer sur la construction de modèles qui répondent aux besoins des gens pour différentes tâches, et qui peuvent être évalués sur cette base, plutôt que de prétendre qu’ils créent de l’intelligence. De même, nous exhortons les médias à se concentrer sur la responsabilisation du pouvoir, plutôt que de tomber dans l’éblouissement de systèmes d’IA apparemment magiques, vantés par des entreprises qui profitent de tromper le public sur ce que sont réellement ces produits.