L’intelligence générale artificielle n’est pas aussi imminente que vous pourriez le penser
Pour la personne moyenne, il doit sembler que le domaine de l’intelligence artificielle fait d’immenses progrès. Selon les communiqués de presse et certains des comptes rendus médiatiques les plus enthousiastes, le DALL-E 2 d’OpenAI peut apparemment créer des images spectaculaires à partir de n’importe quel texte ; un autre système OpenAI appelé GPT-3 peut parler d’à peu près n’importe quoi ; et un système appelé Gato qui a été publié en mai par DeepMind, une division d’Alphabet, a apparemment bien fonctionné sur toutes les tâches que l’entreprise pouvait lui confier. L’un des cadres supérieurs de DeepMind est même allé jusqu’à se vanter que dans la quête de l’intelligence artificielle générale (AGI), une IA qui a la flexibilité et l’ingéniosité de l’intelligence humaine, « The Game is Over! » Et Elon Musk a déclaré récemment que il serait surpris si nous n’avions pas d’intelligence générale artificielle d’ici 2029.
Ne soyez pas dupe. Les machines seront peut-être un jour aussi intelligentes que les gens, et peut-être même plus intelligentes, mais la partie est loin d’être terminée. Il y a encore un immense quantité de travail à faire pour fabriquer des machines qui peuvent vraiment comprendre et raisonner sur le monde qui les entoure. Ce dont nous avons vraiment besoin en ce moment, c’est de moins de postures et de plus de recherche fondamentale.
Certes, l’IA progresse réellement de certaines manières – les images synthétiques semblent de plus en plus réalistes et la reconnaissance vocale peut souvent fonctionner dans des environnements bruyants – mais nous sommes encore à des années-lumière de l’usage général, au niveau humain. Une IA capable de comprendre la véritable signification des articles et des vidéos, ou de gérer les obstacles et interruptions inattendus. Nous sommes toujours bloqués précisément sur les mêmes défis que les scientifiques universitaires (dont moi-même) ont soulignés pendant des années : rendre l’IA fiable et la faire faire face à des circonstances inhabituelles.
Prenez le Gato récemment célèbre, un soi-disant touche-à-tout, et comment il a sous-titré l’image d’un lanceur lançant une balle de baseball. Le système a renvoyé trois réponses différentes : « Un joueur de baseball lançant une balle au-dessus d’un terrain de baseball », « Un homme lançant une balle de baseball à un lanceur sur un terrain de baseball » et « Un joueur de baseball à la batte et un receveur dans la terre pendant un match de base-ball. La première réponse est correcte, mais les deux autres réponses incluent des hallucinations d’autres joueurs qui ne sont pas visibles sur l’image. Le système n’a aucune idée de ce qui est réellement dans l’image par opposition à ce qui est typique d’images à peu près similaires. Tout fan de baseball reconnaîtrait que c’était le lanceur qui venait de lancer la balle, et non l’inverse – et bien que nous nous attendions à ce qu’un receveur et un frappeur soient à proximité, ils n’apparaissent évidemment pas sur l’image.

Un joueur de baseball lance une balle
au sommet d’un terrain de baseball.
Un homme lançant une balle de baseball sur un
lanceur sur un terrain de baseball.
Un joueur de baseball au bâton et un
receveur dans la terre pendant un
match de baseball
De même, DALL-E 2 ne pouvait pas faire la différence entre un cube rouge au-dessus d’un cube bleu et un cube bleu au-dessus d’un cube rouge. Une version plus récente du système, publiée en mai, ne pouvait pas faire la différence entre un astronaute à cheval et un cheval à cheval sur un astronaute.

Lorsque des systèmes comme DALL-E font des erreurs, le résultat est amusant, mais d’autres erreurs d’IA créent de sérieux problèmes. Pour prendre un autre exemple, une Tesla en pilote automatique s’est récemment dirigée directement vers un travailleur humain portant un panneau d’arrêt au milieu de la route, ne ralentissant que lorsque le conducteur humain est intervenu. Le système pouvait reconnaître les humains par eux-mêmes (tels qu’ils apparaissaient dans les données d’entraînement) et les panneaux d’arrêt à leurs emplacements habituels (là encore tels qu’ils apparaissaient dans les images entraînées), mais n’a pas ralenti lorsqu’il a été confronté à la combinaison inhabituelle des deux, qui a mis le panneau d’arrêt dans une position nouvelle et inhabituelle.
Malheureusement, le fait que ces systèmes ne soient toujours pas fiables et luttent avec de nouvelles circonstances est généralement enterré dans les petits caractères. Gato a bien fonctionné sur toutes les tâches signalées par DeepMind, mais rarement aussi bien que d’autres systèmes contemporains. GPT-3 crée souvent une prose fluide mais a toujours du mal avec l’arithmétique de base, et il a si peu de prise sur la réalité qu’il est enclin à créer des phrases comme « Certains experts pensent que le fait de manger une chaussette aide le cerveau à sortir de son état altéré à la suite de la méditation », alors qu’aucun expert n’a jamais dit une telle chose. Un regard rapide sur les gros titres récents ne vous renseignerait sur aucun de ces problèmes.
L’intrigue secondaire ici est que les plus grandes équipes de chercheurs en IA ne se trouvent plus dans l’académie, où l’examen par les pairs était autrefois la monnaie du royaume, mais dans les entreprises. Et les entreprises, contrairement aux universités, n’ont aucune incitation à jouer franc jeu. Plutôt que de soumettre leurs nouveaux articles éclaboussants à un examen académique minutieux, ils ont opté pour la publication par communiqué de presse, séduisant les journalistes et contournant le processus d’examen par les pairs. Nous ne savons que ce que les entreprises veulent que nous sachions.
Dans l’industrie du logiciel, il y a un mot pour ce genre de stratégie : logiciel de démonstration, un logiciel conçu pour être beau pour une démo, mais pas nécessairement assez bon pour le monde réel. Souvent, les démowares deviennent des vaporwares, annoncés pour choquer et effrayer afin de décourager les concurrents, mais jamais sortis du tout.
Les poulets ont tendance à rentrer à la maison pour se percher, finalement. La fusion froide a peut-être semblé géniale, mais vous ne pouvez toujours pas l’obtenir au centre commercial. Le coût de l’IA sera probablement un hiver d’attentes dégonflées. Trop de produits, comme les voitures sans conducteur, les radiologues automatisés et les agents numériques polyvalents, ont fait l’objet de démonstrations, ont fait l’objet d’une publicité et n’ont jamais été livrés. Pour l’instant, les dollars d’investissement continuent d’être promis (qui n’aimerait pas une voiture autonome ?), Mais si les problèmes fondamentaux de fiabilité et de gestion des valeurs aberrantes ne sont pas résolus, les investissements se tariront. Nous nous retrouverons avec de puissants deepfakes, d’énormes réseaux qui émettent d’immenses quantités de carbone et de solides avancées dans la traduction automatique, la reconnaissance vocale et la reconnaissance d’objets, mais trop peu d’autre chose à montrer pour tout le battage médiatique prématuré.
L’apprentissage en profondeur a amélioré la capacité des machines à reconnaître des modèles dans les données, mais il présente trois défauts majeurs. Les schémas qu’il apprend sont, ironiquement, superficiels et non conceptuels ; les résultats qu’il crée sont difficiles à interpréter ; et les résultats sont difficiles à utiliser dans le contexte d’autres processus, tels que la mémoire et le raisonnement. Comme l’a noté l’informaticien de Harvard Les Valiant, « Le défi central [going forward] est d’unifier la formulation de… l’apprentissage et le raisonnement. Vous ne pouvez pas traiter avec une personne portant un panneau d’arrêt si vous ne comprenez pas vraiment ce qu’est un panneau d’arrêt.
Pour l’instant, nous sommes piégés dans un « minimum local » dans lequel les entreprises recherchent des repères plutôt que des idées fondamentales, apportant de petites améliorations avec les technologies qu’elles possèdent déjà plutôt que de s’arrêter pour poser des questions plus fondamentales. Au lieu de poursuivre des démonstrations flashy directement dans les médias, nous avons besoin de plus de personnes qui posent des questions de base sur la façon de construire des systèmes capables d’apprendre et de raisonner en même temps. Au lieu de cela, la pratique actuelle de l’ingénierie est bien en avance sur les compétences scientifiques, travaillant plus dur pour utiliser des outils qui ne sont pas entièrement compris que pour développer de nouveaux outils et une base théorique plus claire. C’est pourquoi la recherche fondamentale reste cruciale.
Qu’une grande partie de la communauté de recherche sur l’IA (comme ceux qui crient « Game Over ») ne voit même pas cela est, eh bien, déchirant.
Imaginez si un extraterrestre étudiait toutes les interactions humaines uniquement en regardant les ombres au sol, remarquant, à son crédit, que certaines ombres sont plus grandes que d’autres, et que toutes les ombres disparaissent la nuit, et peut-être même remarquant que les ombres grandissent régulièrement et rétréci à certains intervalles périodiques – sans jamais lever les yeux pour voir le soleil ou reconnaître le monde tridimensionnel au-dessus.
Il est temps pour les chercheurs en intelligence artificielle de lever les yeux. Nous ne pouvons pas « résoudre l’IA » avec les seules relations publiques.
Ceci est un article d’opinion et d’analyse, et les opinions exprimées par l’auteur ou les auteurs ne sont pas nécessairement celles de Scientifique Américain.