Un pionnier de l’IA révèle ce dont la technologie est vraiment capable : elle n’est pas sensible
Le domaine de l’intelligence artificielle n’a jamais manqué de battage médiatique. En 1965, le pionnier de l’IA, Herb Simon, a déclaré : « Les machines seront capables, d’ici 20 ans, de faire n’importe quel travail qu’un homme peut faire.
Cela ne s’est pas produit, mais il y a certainement eu des progrès notables, en particulier avec l’essor des systèmes d’apprentissage en profondeur, dans lesquels les programmes parcourent des ensembles de données massifs à la recherche de modèles, puis tentent de faire des prédictions.
Peut-être le plus célèbre, les IA qui utilisent l’apprentissage en profondeur peuvent désormais battre les meilleurs joueurs humains de Go (quelques années après que les ordinateurs aient battu les humains aux échecs et à Jeopardy).
La maîtrise du langage s’est avérée plus difficile, mais un programme appelé GPT-3, développé par OpenAI, peut produire un texte de type humain, y compris de la poésie et de la prose, en réponse à des invites.
Les systèmes d’apprentissage en profondeur sont également de mieux en mieux capables de reconnaître les visages et les images en général. Et ils ont contribué au logiciel derrière les véhicules autonomes, dans lequel l’industrie automobile a investi des milliards.
Mais le scientifique, auteur et entrepreneur Gary Marcus, qui a été aux premières loges pour bon nombre de ces développements, affirme que nous devons prendre ces avancées avec un grain de sel.
Marcus, qui a obtenu son doctorat. en sciences du cerveau et cognitives du MIT et est maintenant professeur émérite à l’Université de New York, affirme que le domaine de l’IA a été trop dépendant de l’apprentissage en profondeur, qui, selon lui, a des limites inhérentes.
Allez plus loin, dit-il, en utilisant non seulement l’apprentissage en profondeur, mais aussi des approches plus traditionnelles de l’IA basées sur des symboles, dans lesquelles les ordinateurs codent les connaissances humaines à travers des représentations symboliques (ce qui était en fait l’approche dominante au cours des premières décennies de recherche sur l’IA).
Marcus pense que les approches hybrides, combinant les techniques des deux méthodes, pourraient être la voie la plus prometteuse vers le type d’intelligence artificielle générale que Simon et d’autres pionniers de l’IA imaginaient être à l’horizon.
Le livre le plus récent de Marcuss est Rebooting AI: Building Artificial Intelligence We Can Trust (Pantheon, 2019), co-écrit avec Ernest Davis, professeur d’informatique à NYU.
Undark a récemment rencontré Marcus pour une interview réalisée par Zoom et par e-mail. L’interview a été modifiée pour plus de longueur et de clarté.
Undark : Commençons par GPT-3, un modèle de langage qui utilise l’apprentissage en profondeur pour produire un texte de type humain. Le New York Times Magazine a déclaré que GPT-3 écrit avec une aisance époustouflante, tandis qu’une histoire dans Wired disait que le programme était provoquant des frissons dans toute la Silicon Valley. Cependant, vous avez été assez critique à l’égard de GPT-3. Comment venir?
Gary Marcus : Je pense que c’est une expérience intéressante. Mais je pense que les gens sont amenés à croire que ce système comprend réellement le langage humain, ce qu’il ne fait certainement pas. Ce que c’est vraiment, c’est un système de saisie semi-automatique qui prédit les mots et les phrases suivants. Tout comme avec votre téléphone, où vous tapez quelque chose et cela continue. Il ne comprend pas vraiment le monde qui l’entoure. Et beaucoup de gens sont confus par cela.
GPT-3 ne comprend certainement pas de quoi il parle.
Ils sont troublés par cela parce que ce que ces systèmes font finalement est du mimétisme. Ils imitent de vastes bases de données de texte. Et je pense que la personne moyenne ne comprend pas la différence entre imiter 100 mots, 1 000 mots, un milliard de mots, un billion de mots quand vous commencez à approcher un billion de mots, presque tout ce à quoi vous pouvez penser est déjà évoqué là-bas.
Et donc, quand vous imitez quelque chose, vous pouvez le faire à un degré élevé, mais c’est toujours un peu comme être un perroquet, ou un plagiaire, ou quelque chose comme ça. Un perroquet n’est pas une mauvaise métaphore, car nous ne pensons pas que les perroquets comprennent réellement de quoi ils parlent. Et GPT-3 ne comprend certainement pas de quoi il parle.
UD : Vous avez écrit que GPT-3 peut être confus sur des faits très basiques. Je suppose que si vous lui demandez qui est le président des États-Unis, il peut être presque aussi probable de dire Donald Trump que Joe Biden simplement parce que, comme vous le dites, il imite. Je suppose que dans un certain sens, il ne sait pas vraiment que c’est actuellement 2022 ?
GM : Il est peut-être même plus probable de mentionner Donald Trump en tant que président, car la base de données sur laquelle il est formé contient probablement plus d’exemples de Trump. Hes dans les nouvelles plus; il était dans les nouvelles plus longtemps; il était en poste plus longtemps. Il continue d’être dans l’actualité plus que ne pourrait l’être votre ex-président moyen.
Et oui, le système ne comprend pas en quelle année nous vivons. Et il n’a aucune facilité de raisonnement temporel. Vous savez, en fonction du raisonnement temporel, ce n’est plus parce que vous étiez président que vous êtes président. Ce n’est pas parce que tu étais en vie que tu es toujours en vie. Vous pouvez raisonner que Thomas Edison ne peut plus être président parce qu’il est mort ; GPT-3 ne peut pas faire cette inférence. C’est étonnamment stupide à cet égard.
UD : Bien que ces systèmes d’IA soient stupides, comme vous le dites, les gens sont souvent trompés en pensant qu’ils sont intelligents. Cela semble être lié à ce que vous avez appelé l’écart de crédulité. Quel est l’écart de crédulité ?
GM : C’est l’écart entre notre compréhension de ce que font ces machines et ce qu’elles font réellement. Nous avons tendance à leur attribuer trop; nous avons tendance à penser que les machines sont plus intelligentes qu’elles ne le sont en réalité. Un jour, ils seront vraiment intelligents, mais pour le moment ils ne le sont pas. Et vous remontez à 1965 : un système appelé ELIZA faisait une correspondance de mots clés très simple et n’avait aucune idée de ce dont il parlait. Mais cela a trompé certaines personnes pour qu’elles discutent de leur vie privée avec elle. Il a été rédigé en tant que thérapeute. Et c’était par télétype, qui est un peu comme la messagerie texte. Et les gens ont été dupés; ils pensaient qu’ils parlaient à une personne vivante.
Ce n’est pas sensible, il n’a aucune idée des choses dont il parle.
Et la même chose se produit avec GPT-3, et avec Google LaMDA, où un ingénieur de Google a réellement pensé, ou allégué, que le système était sensible. Ce n’est pas sensible, il n’a aucune idée des choses dont il parle. Mais l’esprit humain voit quelque chose qui ressemble à un être humain, et il se précipite vers des conclusions. C’est ça la crédulité. N’ont pas été évolués ni formés pour reconnaître ces choses.
UD : De nombreux lecteurs connaissent le Essai de Turing, basé sur une idée avancée par le pionnier de l’informatique Alan Turing en 1950. En gros, vous posez une série de questions à une entité invisible, et si cette entité est un ordinateur, mais vous ne pouvez pas dire que c’est un ordinateur, alors elle réussit le test ; on pourrait dire que c’est intelligent. Et c’est souvent dans l’actualité. Par exemple, en 2014, un chatbot appelé Eugene Goostman, sous certains critères, on dit qu’il a réussi le test. Mais vous avez critiqué le test de Turing. Où est-il en deçà ?
GM : Le test de Turing a une sorte de titularité : c’est celui qui existe depuis le plus longtemps ; c’est la mesure d’intelligence la plus connue au sein de l’IA, mais cela ne la rend pas très bonne. Vous savez, en 1950, nous ne savions pas grand-chose sur l’IA. Je pense toujours que nous ne savons pas grand-chose. Mais nous en savons beaucoup plus. L’idée était fondamentalement, si vous parlez à une machine, et qu’elle vous fait croire que c’est une personne alors que ce n’est pas le cas, alors cela doit vous dire quelque chose.
Mais il s’avère que c’est très facile à jouer. Tout d’abord, vous pouvez tromper une personne en faisant semblant d’être paranoïaque ou en faisant semblant d’être un garçon de 13 ans d’Odessa, comme l’a fait Eugene Goostman. Et donc, vous esquivez juste beaucoup de questions. Donc, une grande partie de l’ingénierie qui a permis de battre le test de Turing consiste vraiment à jouer à des jeux et non à construire des systèmes véritablement intelligents.
UD : Parlons des voitures sans conducteur. Il y a quelques années, il semblait que de grands progrès étaient en cours, puis les choses semblent avoir ralenti. Par exemple, là où j’habite, à Toronto, il n’y a pas du tout de taxis autonomes. Alors, qu’est-ce-qu’il s’est passé?
GM : Tout comme GPT-3 ne comprend pas vraiment le langage, le simple fait de mémoriser de nombreuses situations de circulation que vous avez vues ne transmet pas ce que vous devez vraiment comprendre sur le monde pour bien conduire. Et donc, ce que les gens ont essayé de faire, c’est de collecter de plus en plus de données. Mais ils ne font que de petits progrès progressifs en faisant cela. Et comme vous le dites, il n’y a pas de flottes de taxis autonomes à Toronto, et il n’y en a certainement pas à Mumbai.
La plupart de ces travaux sont actuellement effectués dans des endroits où il fait beau et où la circulation est raisonnablement organisée, ce n’est pas aussi chaotique. Les systèmes actuels, si vous les mettez à Mumbai, ne comprendraient même pas ce qu’est un pousse-pousse. Ils auraient donc de vrais ennuis, dès la case départ.
UD : Vous avez souligné dans Scientifique Américain récemment que la plupart des grandes équipes de chercheurs en IA ne se trouvent pas dans le milieu universitaire mais dans les entreprises. Pourquoi est-ce pertinent ?
GM : Pour un tas de raisons. La première est que les entreprises ont leurs propres incitations quant aux problèmes qu’elles veulent résoudre. Par exemple, ils veulent résoudre des publicités. Ce n’est pas la même chose que de comprendre le langage naturel dans le but d’améliorer la médecine.
Les fruits de l’IA actuelle sont entre les mains des entreprises plutôt que du grand public.
Il y a donc un problème d’incitation. Il y a un problème de puissance. Ils peuvent se permettre d’embaucher bon nombre des meilleures personnes, mais ils ne les appliquent pas nécessairement aux problèmes qui profiteraient le plus à la société. Il y a un problème de données, en ce sens qu’ils ont beaucoup de données propriétaires qu’ils ne partagent pas nécessairement, ce qui n’est pas pour le plus grand bien. Cela signifie que les fruits de l’IA actuelle sont entre les mains des entreprises plutôt que du grand public ; qu’ils sont adaptés aux besoins des entreprises plutôt qu’au grand public.
UD : Mais ils comptent sur le grand public parce que ce sont les données des citoyens ordinaires qu’ils utilisent pour créer leurs bases de données, n’est-ce pas ? Ses humains qui ont marqué un milliard de photos qui les aident à former leurs systèmes d’IA.
GM : C’est vrai. Et ce point particulier atteint son paroxysme, au moment même où nous parlons, en ce qui concerne l’art. Ainsi, des systèmes comme OpenAIs DALL-E dessinent des images assez excellentes, mais ils le font sur la base de millions ou de milliards d’images créées par l’homme. Et les humains ne sont pas payés pour ça. Et donc beaucoup d’artistes s’en inquiètent à juste titre.
Les humains ne sont pas payés pour ça.
Et il y a une polémique à ce sujet. Je pense que les problèmes y sont complexes, mais il ne fait aucun doute qu’une grande partie de l’IA en ce moment tire parti des contributions non nécessairement intentionnelles d’êtres humains, qui ont peut-être signé un accord sur les conditions de service, mais ne reconnaissent pas où tout cela est menant à.
UD : Vous écrit dans Nautilus récemment que pour la première fois en 40 ans, vous vous sentez optimiste à propos de l’IA. D’où tirez-vous cet optimisme, en ce moment ?
GM : Les gens osent enfin sortir de l’orthodoxie de l’apprentissage en profondeur et sont enfin prêts à envisager des modèles hybrides qui associent l’apprentissage en profondeur à des approches plus classiques de l’IA. Plus les différentes parties commencent à jeter leurs armes rhétoriques et à travailler ensemble, mieux c’est.
Cet article a été initialement publié le sombre par Dan Falk. Lisez l’article original ici.