Les titans de l’IA Andrew Ng et Yann LeCun s’opposent à l’appel à une pause sur les puissants systèmes d’IA

Rejoignez des cadres supérieurs à San Francisco les 11 et 12 juillet pour découvrir comment les dirigeants intègrent et optimisent les investissements en IA pour réussir. Apprendre encore plus


Deux personnalités de l’industrie de l’intelligence artificielle (IA),Yann LeCunle scientifique en chef de l’IA chez Meta, etAndré Ngle fondateur de Deep Learning, s’est opposé à une proposition de pause sur le développement de puissants systèmes d’IA lors d’une discussion en ligne vendredi.

La discussion, intitulée Pourquoi la pause de 6 mois de l’IA est une mauvaise idée, a été hébergée sur YouTube et a attiré des milliers de téléspectateurs.



Au cours de l’événement, LeCun et Ng ont contesté une lettre ouverte signée par des centaines d’experts en IA, d’entrepreneurs en technologie et de scientifiques le mois dernier appelant à un moratoire d’au moins six mois sur la formation de systèmes d’IA plus avancés que GPT-4, un texte – programme générateur qui peut produire des réponses réalistes et cohérentes à presque n’importe quelle question ou sujet.

Nous avons longuement réfléchi à cette proposition de moratoire de six mois et avons estimé qu’il s’agissait d’un sujet suffisamment important. Je pense que cela causerait en fait un préjudice important si le gouvernement le mettait en œuvre, que Yann et moi avions envie d’en discuter avec vous ici aujourd’hui, Ng a déclaré dans son allocution d’ouverture.

Événement

Transformer 2023

Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs partageront comment ils ont intégré et optimisé les investissements en IA pour réussir et éviter les pièges courants.

S’inscrire maintenant

Ng a d’abord expliqué que le domaine de l’IA avait connu des progrès remarquables au cours des dernières décennies, en particulier ces dernières années. Les techniques d’apprentissage en profondeur ont permis la création de systèmes d’IA génératifs capables de produire des textes, des images et des sons réalistes, tels que ChatGPT, LLaMA, Midjourney, Stable Diffusion et Dall-E. Ces systèmes ont suscité l’espoir de nouvelles applications et possibilités, mais aussi des inquiétudes quant à leurs risques et inconvénients potentiels.

>>Suivez la couverture continue de l’IA générative de VentureBeats<

Certaines de ces préoccupations étaient liées au présent et au futur proche, telles que l’équité, les préjugés et le déplacement socio-économique. D’autres étaient plus spéculatifs et distants, comme l’émergence de l’intelligence artificielle générale (IAG) et ses éventuelles conséquences malveillantes ou imprévues.

Il y a probablement plusieurs motivations chez les différents signataires de cette lettre, a déclaré LeCun dans ses remarques liminaires. Certains d’entre eux sont, peut-être à un extrême, inquiets que l’AGI soit activée puis élimine l’humanité à court préavis. Je pense que peu de gens croient vraiment à ce genre de scénario, ou croient que c’est une menace certaine qui ne peut pas être arrêtée.

Ensuite, il y a des gens qui sont plus raisonnables, qui pensent qu’il y a un vrai mal potentiel et un danger qui doit être traité et je suis d’accord avec eux, a-t-il poursuivi. Il y a beaucoup de problèmes à rendre les systèmes d’IA contrôlables et à les rendre factuels, s’ils sont censés fournir des informations, etc., et à les rendre non toxiques. Il y a un peu de manque d’imagination dans le sens où ce n’est pas comme si les futurs systèmes d’IA seraient conçus sur le même modèle que les LLM auto-régressifs actuels comme ChatGPT et GPT-4 ou d’autres systèmes avant eux comme Galactica ou Bard ou autre . Je pense qu’il y aura de nouvelles idées qui rendront ces systèmes beaucoup plus contrôlables.

Débat croissant sur la manière de réglementer l’IA

L’événement en ligne s’est tenu au milieu d’un débat croissant sur la manière de réglementer les nouveaux LLM capables de produire des textes réalistes sur presque tous les sujets. Ces modèles, qui sont basés sur un apprentissage en profondeur et entraînés sur des quantités massives de données en ligne, ont soulevé des inquiétudes quant à leur potentiel d’utilisation abusive et de préjudice. Le débat s’est intensifié il y a trois semaines lorsque OpenAI a publié GPT-4, son modèle le plus récent et le plus puissant.

Dans leur discussion, Ng et LeCun ont convenu qu’une certaine réglementation était nécessaire, mais pas au détriment de la recherche et de l’innovation. Ils ont fait valoir qu’une pause dans le développement ou le déploiement de ces modèles était irréaliste et contre-productive. Ils ont également appelé à plus de collaboration et de transparence entre les chercheurs, les gouvernements et les entreprises pour garantir l’utilisation éthique et responsable de ces modèles.

Ma première réaction à [the letter] C’est qu’appeler à un retard dans la recherche et le développement me rappelle une nouvelle vague d’obscurantisme, a déclaré LeCun. Pourquoi ralentir le progrès de la connaissance et de la science ? Ensuite, il y a la question des produits. Je suis tout à fait pour réglementer les produits qui tombent entre les mains des gens. Je ne vois pas l’intérêt de réglementer la recherche et le développement. Je ne pense pas que cela serve à autre chose que de réduire les connaissances que nous pourrions utiliser pour rendre la technologie meilleure et plus sûre.

Bien que l’IA présente aujourd’hui certains risques de préjudice, comme la partialité, l’équité, la concentration du pouvoir, ce sont de vrais problèmes, je pense que cela crée également une valeur énorme. Je pense qu’avec l’apprentissage en profondeur au cours des 10 dernières années, et même au cours de la dernière année, le nombre d’idées d’IA génératives et la façon de les utiliser pour l’éducation ou les soins de santé, ou le coaching réactif, est incroyablement excitant, et la valeur tant de gens créent pour aider d’autres personnes utilisant l’IA.

Je pense qu’aussi incroyable que GPT-4 soit aujourd’hui, le construire encore mieux que GPT-4 aidera toutes ces applications et aidera beaucoup de gens, a ajouté LeCun. Donc, suspendre ce progrès semble créer beaucoup de mal et ralentir la création de choses très précieuses qui aideront beaucoup de gens.

Regardez la vidéo complète de la conversation sur YouTube.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie d’entreprise transformatrice et d’effectuer des transactions. Découvrez nos Briefings.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite