L’intelligence artificielle n’est pas encore aussi intelligente qu’un chien, déclare le chef de Meta AI
- Les systèmes d’intelligence artificielle actuels comme ChatGPT n’ont pas d’intelligence au niveau humain et ne sont même pas aussi intelligents qu’un chien, a déclaré le chef de l’IA de Meta, Yann LeCunn.
- LeCun a parlé des limites de l’IA générative, comme ChatGPT, et a déclaré qu’ils ne sont pas très intelligents car ils sont uniquement formés au langage.
- LeCun de Meta a déclaré qu’à l’avenir, il y aura des machines plus intelligentes que les humains, qui ne devraient pas être considérées comme une menace.
Le scientifique en chef de l’IA chez Meta Yann LeCun s’est exprimé lors de la conférence Viva Tech à Paris et a déclaré que l’intelligence artificielle n’a pas actuellement d’intelligence au niveau humain mais pourrait le faire un jour.
Chesnot | Getty Images Actualités | Getty Images
Les systèmes d’intelligence artificielle actuels comme ChatGPT n’ont pas d’intelligence de niveau humain et sont à peine plus intelligents qu’un chien, a déclaré le chef de l’IA de Meta, alors que le débat sur les dangers de la technologie à croissance rapide fait rage.
ChatGPT, développé par OpenAI, est basé sur un soi-disant grand modèle de langage. Cela signifie que le système d’IA a été formé sur d’énormes quantités de données linguistiques qui permettent à un utilisateur de lui poser des questions et des demandes, tandis que le chatbot répond dans une langue que nous comprenons.
Le développement rapide de l’IA a suscité l’inquiétude des principaux technologues que, si elle n’est pas contrôlée, la technologie pourrait présenter des dangers pour la société. Le PDG de Tesla, Elon Musk, a déclaré cette année que l’IA était « l’un des plus grands risques pour l’avenir de la civilisation ».
Lors de la conférence Viva Tech mercredi, Jacques Attali, un théoricien économique et social français qui écrit sur la technologie, a déclaré que l’IA est bonne ou mauvaise dépendra de son utilisation.
« Si vous utilisez l’IA pour développer davantage de combustibles fossiles, ce sera terrible. Si vous utilisez l’IA [to] développer des armes plus terribles, ce sera terrible », a déclaré Attali. « Au contraire, l’IA peut être incroyable pour la santé, incroyable pour l’éducation, incroyable pour la culture. »
Lors du même panel, Yann LeCun, scientifique en chef de l’IA chez Meta, la société mère de Facebook, a été interrogé sur les limites actuelles de l’IA. Il s’est concentré sur l’IA générative formée sur de grands modèles de langage, affirmant qu’ils ne sont pas très intelligents, car ils sont uniquement coachés sur le langage.
« Ces systèmes sont encore très limités, ils n’ont aucune compréhension de la réalité sous-jacente du monde réel, car ils sont purement formés sur du texte, une quantité massive de texte », a déclaré LeCun.
« La plupart des connaissances humaines n’ont rien à voir avec le langage, de sorte qu’une partie de l’expérience humaine n’est pas capturée par l’IA. »
LeCun a ajouté qu’un système d’IA pourrait désormais passer le barreau aux États-Unis, un examen requis pour devenir avocat. Cependant, il a déclaré que l’IA ne pouvait pas charger un lave-vaisselle, ce qu’un enfant de 10 ans pourrait « apprendre en 10 minutes ».
« Ce que cela vous dit, c’est qu’il nous manque quelque chose de vraiment important pour atteindre non seulement l’intelligence humaine, mais aussi l’intelligence canine », a conclu LeCun.
Le chef de l’IA de Meta a déclaré que la société travaillait sur la formation de l’IA sur la vidéo, plutôt que sur le langage, ce qui est une tâche plus difficile.
Dans un autre exemple des limitations actuelles de l’IA, il a déclaré qu’un bébé de cinq mois regarderait un objet flottant et n’y penserait pas trop. Cependant, un bébé de neuf mois regarderait cet objet et serait surpris, car il se rendrait compte qu’un objet ne devrait pas flotter.
LeCun a déclaré que nous n’avons « aucune idée de comment reproduire cette capacité avec des machines aujourd’hui. Tant que nous ne pourrons pas le faire, nous n’allons pas avoir une intelligence de niveau humain, nous n’allons pas avoir un niveau de chien ou de chat. [intelligence]. »
Prenant un ton pessimiste quant à l’avenir, Attali a déclaré: « Il est bien connu que l’humanité sera confrontée à de nombreux dangers au cours des trois ou quatre prochaines décennies. »
Il a noté les catastrophes climatiques et la guerre parmi ses principales préoccupations, notant également qu’il craignait que les robots « ne se retournent contre nous ».
Au cours de la conversation, Meta’s LeCun a déclaré qu’à l’avenir, il y aura des machines plus intelligentes que les humains, qui ne devraient pas être considérées comme présentant un danger.
« Nous ne devrions pas voir cela comme une menace, nous devrions voir cela comme quelque chose de très bénéfique. Chacun de nous aura un assistant IA, ce sera comme un personnel pour vous aider dans votre vie quotidienne qui est plus intelligent que vous-même », a déclaré LeCun. .
Le scientifique a ajouté que ces systèmes d’IA doivent être créés comme « contrôlables et fondamentalement subordonnés aux humains ». Il a également rejeté l’idée que les robots prendraient le contrôle du monde.
« Une peur popularisée par la science-fiction [is]que si les robots sont plus intelligents que nous, ils voudront conquérir le monde, il n’y a pas de corrélation entre être intelligent et vouloir prendre le contrôle », a déclaré LeCun.
Tout en examinant les dangers et les opportunités de l’IA, Attali a conclu qu’il fallait mettre en place des garde-fous pour le développement de la technologie. Mais il ne savait pas qui ferait ça.
« Qui va mettre les frontières ? », a-t-il demandé.
La réglementation de l’IA a été un sujet brûlant à Viva Tech. L’Union européenne fait avancer sa propre législation sur l’IA, tandis que les principaux ministres du gouvernement français ont déclaré à CNBC cette semaine que le pays souhaitait voir une réglementation mondiale de la technologie.