Microsoft essaie de justifier la tendance de l’IA à donner de mauvaises réponses en disant qu’elles ont « utilement tort »

Le PDG de Microsoft, Satya Nadella, prend la parole lors de l’événement Ignite Spotlight de la société à Séoul le 15 novembre 2022.

Seong Joon Cho | Bloomberg | Getty Images

Grâce aux progrès récents de l’intelligence artificielle, de nouveaux outils comme ChatGPT épatent les consommateurs avec leur capacité à créer des écrits convaincants basés sur les requêtes et les invites des gens.

Bien que ces outils alimentés par l’IA se soient beaucoup améliorés pour produire des réponses créatives et parfois humoristiques, ils incluent souvent des informations inexactes.

Par exemple, en février, lorsque Microsoft a lancé son outil de chat Bing, construit à l’aide de la technologie GPT-4 créée par OpenAI soutenu par Microsoft, les gens ont remarqué que l’outil fournissait de mauvaises réponses lors d’une démonstration liée aux rapports sur les revenus financiers. Comme d’autres outils de langage d’IA, y compris des logiciels similaires de Google, la fonctionnalité de chat de Bing peut parfois présenter de faux faits que les utilisateurs pourraient croire être la vérité fondamentale, un phénomène que les chercheurs appellent une « hallucination ».

Ces problèmes avec les faits n’ont pas ralenti la course à l’IA entre les deux géants de la technologie.

Mardi, Google a annoncé qu’il apportait la technologie de chat basée sur l’IA à Gmail et Google Docs, lui permettant d’aider à composer des e-mails ou des documents. Jeudi, Microsoft a annoncé que ses applications professionnelles populaires comme Word et Excel seraient bientôt livrées avec une technologie de type ChatGPT baptisée Copilot.

Mais cette fois, Microsoft présente la technologie comme étant « utilement fausse ».

Dans une présentation en ligne sur les nouvelles fonctionnalités de Copilot, les dirigeants de Microsoft ont évoqué la tendance du logiciel à produire des réponses inexactes, mais l’ont présenté comme quelque chose qui pourrait être utile. Tant que les gens se rendent compte que les réponses de Copilot pourraient être bâclées avec les faits, ils peuvent corriger les inexactitudes et envoyer plus rapidement leurs e-mails ou terminer leurs diapositives de présentation.

Par exemple, si une personne souhaite créer un e-mail souhaitant un joyeux anniversaire à un membre de sa famille, Copilot peut toujours être utile même s’il présente la mauvaise date de naissance. Selon Microsoft, le simple fait que l’outil génère du texte fait gagner du temps à une personne et est donc utile. Les gens doivent juste faire très attention et s’assurer que le texte ne contient pas d’erreurs.

Les chercheurs pourraient être en désaccord.

En effet, certains technologues comme Noah Giansiracusa et Gary Marcus ont exprimé leur inquiétude quant au fait que les gens accordent trop de confiance à l’IA moderne, prenant à cœur les outils de conseil tels que ChatGPT présents lorsqu’ils posent des questions sur la santé, les finances et d’autres sujets à enjeux élevés.

« Les barrières anti-toxicité de ChatGPT sont facilement contournées par ceux qui sont déterminés à l’utiliser pour le mal et comme nous l’avons vu plus tôt cette semaine, tous les nouveaux moteurs de recherche continuent d’halluciner », ont écrit les deux hommes dans un récent article d’opinion de Time. « Mais une fois que nous aurons dépassé la nervosité de la journée d’ouverture, ce qui comptera vraiment, c’est si l’un des grands acteurs peut construire une intelligence artificielle en laquelle nous pouvons vraiment faire confiance. »

On ne sait pas à quel point Copilot sera fiable dans la pratique.

Le scientifique en chef de Microsoft et collègue technique, Jaime Teevan, a déclaré que lorsque Copilot « se trompe ou a des préjugés ou est mal utilisé », Microsoft a « des mesures d’atténuation en place ». De plus, Microsoft testera le logiciel avec seulement 20 entreprises clientes dans un premier temps afin qu’il puisse découvrir comment cela fonctionne dans le monde réel, a-t-elle expliqué.

« Nous allons faire des erreurs, mais quand nous en ferons, nous les corrigerons rapidement », a déclaré Teevan.

Les enjeux commerciaux sont trop importants pour que Microsoft ignore l’enthousiasme suscité par les technologies d’IA génératives telles que ChatGPT. Le défi sera pour l’entreprise d’intégrer cette technologie afin qu’elle ne crée pas de méfiance du public envers le logiciel ou ne conduise pas à des catastrophes majeures en matière de relations publiques.

« J’ai étudié l’IA pendant des décennies et je ressens cet énorme sens des responsabilités avec ce nouvel outil puissant », a déclaré Teevan. « Nous avons la responsabilité de le mettre entre les mains des gens et de le faire de la bonne manière. »

Montre: Beaucoup de marge de croissance pour Microsoft et Google

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite