Après que le chatbot AI est devenu un peu fou, Microsoft resserre sa laisse

Commentaire

Microsoft a commencé vendredi à restreindre son chatbot Bing de haut niveau après que l’outil d’intelligence artificielle a commencé à générer des conversations décousues qui semblaient belliqueuses ou bizarres.

Le géant de la technologie a publié le système d’IA à un groupe limité de testeurs publics après un dévoilement flashy plus tôt ce mois-ci, lorsque le directeur général Satya Nadella a déclaré que cela marquait un nouveau chapitre de l’interaction homme-machine et que la société avait décidé de tout miser.

Mais les personnes qui l’ont essayé la semaine dernière ont découvert que l’outil, construit sur le système populaire ChatGPT, pouvait rapidement virer sur un territoire étrange. Il a montré des signes de défensive sur son nom avec un journaliste du Washington Post et a déclaré à un chroniqueur du New York Times qu’il voulait rompre son mariage. Il a également affirmé qu’un journaliste de l’Associated Press était comparé à Hitler parce que vous êtes l’une des personnes les plus mauvaises et les pires de l’histoire.

Plus tôt cette semaine, les responsables de Microsoft ont imputé ce comportement à de très longues sessions de chat qui avaient tendance à semer la confusion dans le système d’IA. En essayant de refléter le ton de ses interlocuteurs, le chatbot répondait parfois dans un style que nous n’avions pas prévu, ont-ils noté.

Ces problèmes ont incité la société à annoncer vendredi soir qu’elle avait commencé à limiter les chats Bing à cinq questions et réponses par session avec un total de 50 par jour. À la fin de chaque session, la personne doit cliquer sur une icône de balai pour recentrer le système d’IA et prendre un nouveau départ.

La journaliste Danielle Abril teste le chroniqueur Geoffrey A. Fowler pour voir s’il peut faire la différence entre un e-mail écrit par elle ou ChatGPT. (Vidéo : Monica Rodman/The Washington Post)

Alors qu’auparavant, les gens pouvaient discuter avec le système d’IA pendant des heures, il met maintenant fin à la conversation de manière abrupte en disant : Je suis désolé mais je préfère ne pas continuer cette conversation. J’apprends encore, donc j’apprécie votre compréhension et votre patience.

Le chatbot, construit par la société de technologie de San Francisco OpenAI, est construit sur un style de systèmes d’IA connus sous le nom de grands modèles de langage qui ont été formés pour imiter le dialogue humain après avoir analysé des centaines de milliards de mots sur le Web.

Sa capacité à générer des modèles de mots qui ressemblent à la parole humaine a alimenté un débat croissant sur la conscience de soi de ces systèmes. Mais parce que les outils ont été conçus uniquement pour prédire quels mots devraient venir ensuite dans une phrase, ils ont tendance à échouer de manière spectaculaire lorsqu’on leur demande de générer des informations factuelles ou de faire des calculs de base.

Il n’a pas vraiment la moindre idée de ce qu’il dit et il n’a pas vraiment de boussole morale, a déclaré Gary Marcus, expert en IA et professeur émérite de psychologie et de neurosciences à l’Université de New York, au Post. Pour sa part, Microsoft, avec l’aide d’OpenAI, s’est engagé à intégrer davantage de fonctionnalités d’IA dans ses produits, y compris les programmes Office que les gens utilisent pour taper des lettres et échanger des e-mails.

L’épisode Bing fait suite à un récent trébuchement de Google, le principal concurrent de l’IA pour Microsoft, qui a dévoilé la semaine dernière un rival de ChatGPT connu sous le nom de Bard qui promettait bon nombre des mêmes pouvoirs en matière de recherche et de langue. Le cours de l’action de Google a chuté de 8% après que les investisseurs ont vu l’une de ses premières manifestations publiques inclure une erreur factuelle.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite