Après que le chatbot AI est devenu un peu fou, Microsoft resserre sa laisse
Mais les personnes qui l’ont essayé la semaine dernière ont découvert que l’outil, construit sur le système populaire ChatGPT, pouvait rapidement virer sur un territoire étrange. Il a montré des signes de défensive sur son nom avec un journaliste du Washington Post et a déclaré à un chroniqueur du New York Times qu’il voulait rompre son mariage. Il a également affirmé qu’un journaliste de l’Associated Press était comparé à Hitler parce que vous êtes l’une des personnes les plus mauvaises et les pires de l’histoire.
Plus tôt cette semaine, les responsables de Microsoft ont imputé ce comportement à de très longues sessions de chat qui avaient tendance à semer la confusion dans le système d’IA. En essayant de refléter le ton de ses interlocuteurs, le chatbot répondait parfois dans un style que nous n’avions pas prévu, ont-ils noté.
Ces problèmes ont incité la société à annoncer vendredi soir qu’elle avait commencé à limiter les chats Bing à cinq questions et réponses par session avec un total de 50 par jour. À la fin de chaque session, la personne doit cliquer sur une icône de balai pour recentrer le système d’IA et prendre un nouveau départ.
Alors qu’auparavant, les gens pouvaient discuter avec le système d’IA pendant des heures, il met maintenant fin à la conversation de manière abrupte en disant : Je suis désolé mais je préfère ne pas continuer cette conversation. J’apprends encore, donc j’apprécie votre compréhension et votre patience.
Le chatbot, construit par la société de technologie de San Francisco OpenAI, est construit sur un style de systèmes d’IA connus sous le nom de grands modèles de langage qui ont été formés pour imiter le dialogue humain après avoir analysé des centaines de milliards de mots sur le Web.
Sa capacité à générer des modèles de mots qui ressemblent à la parole humaine a alimenté un débat croissant sur la conscience de soi de ces systèmes. Mais parce que les outils ont été conçus uniquement pour prédire quels mots devraient venir ensuite dans une phrase, ils ont tendance à échouer de manière spectaculaire lorsqu’on leur demande de générer des informations factuelles ou de faire des calculs de base.
Il n’a pas vraiment la moindre idée de ce qu’il dit et il n’a pas vraiment de boussole morale, a déclaré Gary Marcus, expert en IA et professeur émérite de psychologie et de neurosciences à l’Université de New York, au Post. Pour sa part, Microsoft, avec l’aide d’OpenAI, s’est engagé à intégrer davantage de fonctionnalités d’IA dans ses produits, y compris les programmes Office que les gens utilisent pour taper des lettres et échanger des e-mails.
L’épisode Bing fait suite à un récent trébuchement de Google, le principal concurrent de l’IA pour Microsoft, qui a dévoilé la semaine dernière un rival de ChatGPT connu sous le nom de Bard qui promettait bon nombre des mêmes pouvoirs en matière de recherche et de langue. Le cours de l’action de Google a chuté de 8% après que les investisseurs ont vu l’une de ses premières manifestations publiques inclure une erreur factuelle.