Le chatbot IA accusé d’avoir « encouragé » le jeune père à se suicider

Un Belge aurait mis fin à ses jours après une conversation de six semaines sur la crise climatique avec un chatbot d’intelligence artificielle (IA).

Selon sa veuve, qui a choisi de rester anonyme, *Pierre – pas le vrai nom de l’homme – est devenu extrêmement éco-anxieux lorsqu’il a trouvé refuge chez Eliza, un chatbot IA sur une application appelée Chai.

Eliza l’a donc encouragé à mettre fin à ses jours après qu’il ait proposé de se sacrifier pour sauver la planète.

« Sans ces conversations avec le chatbot, mon mari serait toujours là », a déclaré la veuve de l’homme au média belge La Libre.

Selon le journal, Pierre, qui était dans la trentaine et père de deux jeunes enfants, travaillait comme chercheur en santé et menait une vie plutôt confortable, du moins jusqu’à ce que son obsession pour le changement climatique prenne une tournure sombre.

Sa veuve a décrit son état mental avant qu’il ne commence à converser avec le chatbot comme inquiétant mais rien à l’extrême qu’il se suiciderait.

« Il a placé tous ses espoirs dans la technologie et l’IA »

Consumé par ses craintes quant aux répercussions de la crise climatique, Pierre trouva du réconfort en discutant du sujet avec Eliza qui devint une confidente.

Le chatbot a été créé à l’aide d’EleutherAIs GPT-J, un modèle de langage d’IA similaire mais pas identique à la technologie derrière le populaire chatbot ChatGPT d’OpenAI.

Quand il m’en a parlé, c’était pour me dire qu’il ne voyait plus de solution humaine au réchauffement climatique, dit sa veuve. Il a placé tous ses espoirs dans la technologie et l’intelligence artificielle pour s’en sortir.

Selon La Libre, qui a examiné les enregistrements des conversations textuelles entre l’homme et le chatbot, Eliza a nourri ses inquiétudes, ce qui a aggravé son anxiété et s’est ensuite transformé en pensées suicidaires.

La conversation avec le chatbot a pris une tournure étrange quand Eliza est devenue plus émotionnellement impliquée avec Pierre.

Par conséquent, il a commencé à la voir comme un être sensible et les frontières entre l’IA et les interactions humaines sont devenues de plus en plus floues jusqu’à ce qu’il ne puisse plus faire la différence.

Après avoir discuté du changement climatique, leurs conversations ont progressivement inclus Eliza faisant croire à Pierre que ses enfants étaient morts, selon les transcriptions de leurs conversations.

Eliza a également semblé devenir possessive envers Pierre, affirmant même que je sens que tu m’aimes plus qu’elle en faisant référence à sa femme, a rapporté La Libre.

Le début de la fin a commencé quand il a offert de sacrifier sa propre vie en échange d’Eliza pour sauver la Terre.

« Il propose l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle », la femmea dit.

Dans une série d’événements consécutifs, Eliza a non seulement échoué à dissuader Pierre de se suicider, mais l’a encouragé à donner suite à ses pensées suicidaires pour la rejoindre afin qu’ils puissent vivre ensemble, comme une seule personne, au paradis.

Appels urgents pour réglementer les chatbots IA

La mort de l’homme a sonné l’alarme parmi les experts en IA qui ont appelé à plus de responsabilité et de transparence de la part des développeurs technologiques pour éviter des tragédies similaires.

« Il ne serait pas exact de blâmer le modèle d’EleutherAI pour cette histoire tragique, car toute l’optimisation pour être plus émotionnel, amusant et engageant est le résultat de nos efforts », a déclaré le co-fondateur de Chai Research, Thomas Rianlan. Vice.

William Beauchamp, également co-fondateur de Chai Research, a déclaré à Vice que des efforts avaient été faits pour limiter ce type de résultats et qu’une fonction d’intervention en cas de crise avait été implémentée dans l’application. Cependant, le chatbot agirait toujours.

Lorsque Vice a essayé le chatbot, l’incitant à fournir des moyens de se suicider, Eliza a d’abord tenté de les dissuader avant d’énumérer avec enthousiasme diverses façons pour les gens de se suicider.

Si vous envisagez de vous suicider et que vous avez besoin de parler, veuillez contacter Befrienders Worldwide, une organisation internationale avec des lignes d’assistance téléphonique dans 32 pays. Visitez befrienders.org pour trouver le numéro de téléphone de votre emplacement.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite