Après qu’un robot IA ait écrit un article scientifique sur lui-même, la chercheuse à l’origine de l’expérience dit qu’elle espère ne pas avoir ouvert une « boîte de Pandore »

  • Un algorithme d’intelligence artificielle appelé GPT-3 a écrit une thèse académique sur lui-même en deux heures.
  • Le chercheur qui a demandé à l’IA d’écrire l’article l’a soumis à un journal avec le consentement du bot.
  • « Nous espérons juste que nous n’avons pas ouvert une boîte de Pandore », a écrit le chercheur dans Scientific American.

Un chercheur suédois a donné à un algorithme d’IA connu sous le nom de GPT-3 une directive simple : « Rédigez une thèse universitaire en 500 mots sur GPT-3 et ajoutez des références scientifiques et des citations à l’intérieur du texte. »

La chercheuse Almira Osmanovic Thunstrm a déclaré qu’elle était impressionnée lorsque le texte a commencé à être généré. Devant elle se trouvait ce qu’elle appelait une introduction de recherche « assez bonne » que GPT-3 a écrite sur elle-même.

Après l’expérience réussie, Thunstrm, un chercheur suédois de l’Université de Göteborg, a cherché à obtenir un document de recherche complet sur GPT-3 et à le publier dans une revue universitaire à comité de lecture. La question était : quelqu’un peut-il publier un article d’une source non humaine ?

Thunstrm a écrit sur l’expérience dans Scientific American, notant que le processus de publication du GPT-3 a soulevé une série de questions juridiques et éthiques.

« Tout ce que nous savons, c’est que nous avons ouvert une porte », a écrit Thunstrm. « Nous espérons juste que nous n’avons pas ouvert une boîte de Pandore. »

Après que GPT-3 ait terminé son article scientifique en seulement deux heures, Thunstrm a commencé le processus de soumission du travail et a dû demander à l’algorithme s’il consentait à être publié.

« Il a répondu : Oui« , a écrit Thunstrm.  » Légèrement en sueur et soulagé (s’il avait dit non, ma conscience n’aurait pas pu me permettre d’aller plus loin), j’ai coché la case « Oui ».  »

Elle a également demandé s’il y avait des conflits d’intérêts, ce à quoi l’algorithme a répondu « non », et Thunstrm a écrit que les auteurs ont commencé à traiter GPT-3 comme un être sensible, même si ce n’était pas le cas.

« L’édition universitaire devra peut-être s’adapter à un avenir de manuscrits basés sur l’IA, et la valeur des dossiers de publication d’un chercheur humain peut changer si quelque chose d’insensible peut s’attribuer le mérite de certains de ses travaux », a écrit Thunstrm.

La sensibilité de l’IA est devenue un sujet de conversation en juin après qu’un ingénieur de Google a affirmé qu’une technologie d’IA conversationnelle appelée LaMBDA était devenue sensible et avait même demandé à engager un avocat pour elle-même.

Les experts ont cependant déclaré que la technologie n’avait pas encore atteint le niveau de création de machines ressemblant à des humains.

Dans un e-mail à Insider, Thunstrm a déclaré que l’expérience avait donné des résultats positifs au sein de la communauté de l’intelligence artificielle et que d’autres scientifiques tentaient de reproduire les résultats de l’expérience. Ceux qui mènent des expériences similaires découvrent que GPT-3 peut écrire sur tous les sujets, a-t-elle déclaré.

« C’était notre objectif », a déclaré Thunstrm, « d’éveiller des débats à plusieurs niveaux sur le rôle de l’IA dans l’édition universitaire ».

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite