L’utilisation de l’IA s’infiltre dans les revues universitaires et s’avère difficile à détecter

Les experts affirment qu’il y a un équilibre à trouver dans le monde universitaire lorsque l’utilisation de l’IA générative pourrait rendre le processus d’écriture plus efficace et aider les chercheurs à transmettre plus clairement leurs conclusions. Mais la technologie, lorsqu’elle est utilisée dans de nombreux types d’écrits, a également introduit de fausses références dans ses réponses, inventé des choses et réitéré des contenus sexistes et racistes provenant d’Internet, ce qui serait problématique s’il était inclus dans des écrits scientifiques publiés.

Si les chercheurs utilisent ces réponses générées dans leurs travaux sans contrôle ni divulgation stricts, elles soulèvent d’importants problèmes de crédibilité. Ne pas divulguer l’utilisation de l’IA signifierait que les auteurs font passer le contenu génératif de l’IA pour le leur, ce qui pourrait être considéré comme du plagiat. Ils pourraient également potentiellement propager les hallucinations de l’IA, ou son étrange capacité à inventer des choses et à les présenter comme des faits.

C’est un problème majeur, déclare David Resnik, bioéthicien à l’Institut national des sciences de la santé environnementale, à propos de l’utilisation de l’IA dans les travaux scientifiques et universitaires. Pourtant, dit-il, l’IA générative n’est pas que mauvaise : elle pourrait aider les chercheurs dont la langue maternelle n’est pas l’anglais à rédiger de meilleurs articles. L’IA pourrait aider ces auteurs à améliorer la qualité de leurs écrits et leurs chances de voir leurs articles acceptés, explique Resnik. Mais ceux qui utilisent l’IA devraient le divulguer, ajoute-t-il.

Pour l’instant, il est impossible de savoir dans quelle mesure l’IA est utilisée dans l’édition universitaire, car il n’existe aucun moyen infaillible de vérifier l’utilisation de l’IA, comme c’est le cas pour le plagiat. Le Politique de ressources L’article a attiré l’attention des chercheurs parce que les auteurs semblent avoir accidentellement laissé derrière eux un indice sur l’implication possible d’un grand modèle de langage. Ce ne sont en réalité que la pointe de l’iceberg qui ressort, déclare Elisabeth Bik, consultante en intégrité scientifique qui dirige le blog. Recueil sur l’intégrité scientifique. Je pense que c’est le signe que cela se produit à très grande échelle.

En 2021, Guillaume Cabanac, professeur d’informatique à l’Université de Toulouse en France, a trouvé des expressions étranges dans des articles universitaires, comme une fausse conscience au lieu d’une intelligence artificielle. Lui et une équipe ont inventé l’idée de rechercher des expressions torturées, ou une soupe de mots, à la place de termes simples, comme indicateurs qu’un document provient probablement de générateurs de texte. Il est également à l’affût de l’IA générative dans les revues, et c’est lui qui a signalé le Politique de ressources étude sur X.

Cabanac enquête sur des études qui pourraient poser problème et il a signalé une utilisation potentiellement non divulguée de l’IA. Pour protéger l’intégrité scientifique à mesure que la technologie se développe, les scientifiques doivent s’éduquer, dit-il. Nous, en tant que scientifiques, devons agir en nous formant, en connaissant les fraudes, dit Cabanac. C’est un jeu de taupe. Il existe de nouvelles façons de tromper. »

Depuis, les progrès technologiques ont rendu ces modèles linguistiques encore plus convaincants et plus attrayants en tant que partenaire d’écriture. En juillet, deux chercheurs ont utilisé ChatGPT pour rédiger un article de recherche complet en une heure afin de tester les capacités des chatbots à rivaliser dans le monde de l’édition scientifique. Ce n’était pas parfait, mais en incitant le chatbot, il a rédigé un document avec une analyse solide.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite