L’IA Gato de DeepMind est-elle vraiment une percée en matière d’intelligence au niveau humain ?

Gato

Le Gato de DeepMind peut ou non être une percée majeure pour l’IA

DeepMind

DeepMind a publié ce qu’il appelle une IA « généraliste » appelée Gato, qui peut jouer à des jeux Atari, légender avec précision des images, discuter naturellement avec un humain et empiler des blocs colorés avec un bras de robot, parmi 600 autres tâches. Mais Gato est-il vraiment intelligent avoir une intelligence générale artificielle ou est-ce juste un modèle d’IA avec quelques tours supplémentaires dans sa manche ?

Qu’est-ce que l’intelligence générale artificielle (IAG) ?

En dehors de la science-fiction, l’IA se limite à des tâches de niche. Il a récemment connu beaucoup de succès dans la résolution d’une vaste gamme de problèmes, de l’écriture de logiciels au repliement des protéines et même à la création de recettes de bière, mais les modèles d’IA individuels ont des capacités limitées et spécifiques. Un modèle entraîné pour une tâche est peu utile pour une autre.

AGI est un terme utilisé pour un modèle qui peut apprendre n’importe quelle tâche intellectuelle qu’un être humain peut. Gary Marcus de la société de logiciels américaine Robust.AI dit que le terme est un raccourci. « Ce n’est pas une seule chose magique, » dit-il. « Mais en gros, nous entendons des systèmes qui peuvent résoudre de manière flexible et ingénieuse des problèmes qu’ils n’ont jamais vus auparavant, et le faire de manière fiable. »

Comment saurons-nous si l’AGI a été atteint ?

Divers tests ont été proposés qui accorderaient à une IA le statut d’AGI, bien qu’il n’y ait pas de définition universellement acceptée. Alan Turing a suggéré qu’une IA devrait passer pour humaine dans une conversation textuelle, tandis que Steve Wozniak, co-fondateur d’Apple, a déclaré qu’il considérerait AGI comme réel s’il pouvait entrer dans une maison au hasard et comprendre comment faire une tasse de café. D’autres tests proposés consistent à envoyer une IA à l’université et à voir si elle peut passer un diplôme, ou à tester si elle peut effectuer avec succès des emplois dans le monde réel.

AGI existe-t-il déjà ?

Yann LeCun, scientifique en chef de l’IA chez Meta, propriétaire de Facebook, affirme que cela n’existe pas, car même les humains sont spécialisés. Dans un récent article de blog, il a déclaré qu’une « IA de niveau humain » pourrait être un objectif utile à viser, où l’IA peut apprendre des emplois selon les besoins comme le ferait un humain, mais que nous n’en sommes pas encore là. « Nous n’avons toujours pas de paradigme d’apprentissage qui permette aux machines d’apprendre comment le monde fonctionne, comme le font les humains et de nombreux bébés non humains », a-t-il écrit. « La solution n’est pas juste au coin de la rue. Nous avons un certain nombre d’obstacles à franchir, et nous ne savons pas comment.

L’échelle est l’un des moteurs du succès actuel de la recherche en IA. de plus en plus de puissance informatique est utilisée pour former des modèles de plus en plus grands sur des ensembles de données de plus en plus volumineux. La découverte qu’une simple mise à l’échelle fournit une telle puissance est surprenante, et nous n’avons pas encore vu de signes indiquant que plus de puissance, plus de données et des modèles plus grands ne continueront pas à fournir une IA plus performante. Mais de nombreux chercheurs sont sceptiques sur le fait que cela conduira à une IA consciente, voire générale.

Gato est-il un AGI ?

Nando de Freitas à DeepMind tweeté que « le jeu est terminé » lorsque Gato est sorti, et a suggéré que la réalisation de l’AGI était désormais simplement une question de rendre les modèles d’IA plus grands et plus efficaces, et d’introduire plus de données de formation. Mais d’autres n’en sont pas si sûrs.

Marcus dit que Gato a été formé pour faire chacune des tâches qu’il peut faire, et que face à un nouveau défi, il ne serait pas en mesure d’analyser et de résoudre logiquement ce problème. «Ce sont comme des tours de passe-passe», dit-il. « Ils sont mignons, ce sont des tours de magie. Ils sont capables de tromper les humains non sophistiqués qui ne sont pas formés pour comprendre ces choses. Mais cela ne veut pas dire qu’ils sont réellement proches [AGI].”

Oliver Lemon de l’Université Heriot-Watt d’Edimbourg, au Royaume-Uni, affirme que l’affirmation selon laquelle « le jeu est terminé » n’est pas exacte et que Gato n’est pas AGI. « Ces modèles font des choses vraiment impressionnantes », dit-il. « Cependant, beaucoup d’exemples vraiment sympas que vous voyez sont sélectionnés avec soin ; ils obtiennent exactement la bonne entrée pour aboutir à un résultat impressionnant.

Alors qu’est-ce que Gato a réalisé?

Même les propres scientifiques de DeepMind sont sceptiques quant aux affirmations de certains à propos de Gato. David Pfau, chercheur à DeepMind,tweeté : «Je ne comprends vraiment pas pourquoi les gens semblent si excités par le journal Gato. Ils ont pris un groupe d’agents formés de manière indépendante, puis ont amorti toutes leurs politiques en un seul réseau ? Cela n’a rien d’étonnant. »

Mais Lemon dit que le nouveau modèle, et d’autres similaires, créent des résultats étonnamment bons, et que la formation d’une IA pour accomplir des tâches variées peut éventuellement créer une base solide de connaissances générales sur lesquelles un modèle plus adaptable pourrait être basé. « Je suis sûr que l’apprentissage en profondeur n’est pas la fin de l’histoire », dit-il. « Il y aura d’autres innovations à venir qui combleront certaines des lacunes que nous avons actuellement en matière de créativité et d’apprentissage interactif. »

DeepMind n’était pas disponible pour commenter.

En savoir plus sur ces sujets :

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite