Le phénomène de l’IA appelé « effondrement des modèles » menace de détruire Internet

Les experts tirent la sonnette d’alarme sur la formation de l’IA générative sur le contenu généré par l’IA.
Martin Poole/Getty Images

  • L’IA générative pourrait bientôt être entraînée sur du contenu généré par l’IA et les experts tirent la sonnette d’alarme.
  • Le phénomène, que certains experts appellent « l’effondrement du modèle », pourrait conduire l’IA à produire des résultats de mauvaise qualité à long terme.
  • Le nouveau terme intervient alors que le contenu généré par l’IA et rempli d’erreurs continue d’inonder Internet.

Les experts préviennent que le contenu généré par l’IA peut constituer une menace pour la technologie d’IA qui l’a produit.

Dans un article récent sur la façon dont les outils d’IA générative comme ChatGPT sont formés, une équipe de chercheurs en IA provenant d’écoles comme l’Université d’Oxford et l’Université de Cambridge a découvert que les grands modèles de langage derrière la technologie pourraient potentiellement être formés sur d’autres contenus générés par l’IA. alors qu’il continue de se propager en masse sur Internet, un phénomène qu’ils ont qualifié d’« effondrement du modèle ». À leur tour, les chercheurs affirment que les outils d’IA générative peuvent répondre aux requêtes des utilisateurs avec des résultats de moindre qualité, car leurs modèles sont plus largement formés sur des « données synthétiques » au lieu du contenu créé par l’homme qui rend leurs réponses uniques.

D’autres chercheurs en IA ont inventé leurs propres termes pour décrire la méthode de formation. Dans un article publié en juillet, des chercheurs des universités de Stanford et Rice ont qualifié ce phénomène de « trouble de l’autographie modèle », dans lequel la boucle « auto-consommée » de l’IA s’entraînant sur le contenu généré par d’autres IA pourrait aboutir à des outils d’IA génératifs « voués à l’échec ».  » de voir leur « qualité » et leur « diversité » des images et des textes générés faiblir. Jathan Sadowski, chercheur principal au laboratoire de recherche sur les technologies émergentes en Australie qui étudie l’IA, a appelé ce phénomène « IA des Habsbourg », faisant valoir que les systèmes d’IA fortement entraînés sur les résultats d’autres outils d’IA génératifs peuvent créer des réponses « mutantes consanguines » qui contiennent des « caractéristiques exagérées et grotesques ».

Bien que les effets spécifiques de ces phénomènes ne soient pas encore clairs, certains experts en technologie estiment que « l’effondrement du modèle » et la consanguinité de l’IA pourraient rendre difficile l’identification de la source d’information originale sur laquelle un modèle d’IA est formé. En conséquence, les fournisseurs d’informations précises, tels que les médias, pourraient décider de limiter le contenu qu’ils publient en ligne, voire de le placer derrière des barrières payantes, afin d’empêcher que leur contenu ne soit utilisé pour entraîner l’IA, ce qui pourrait créer un « âge sombre de l’information publique », selon à un essai rédigé par Ray Wang, PDG de la société de recherche technologique Constellation Research.

Certains experts en technologie sont moins inquiets de la croissance du contenu généré par l’IA sur Internet. Saurabh Baji, vice-président principal de l’ingénierie chez Cohere, société d’IA, a déclaré à Axios que le guidage humain est « toujours essentiel au succès et à la qualité » de ses modèles générés par l’IA, et d’autres ont déclaré au média que la montée en puissance du contenu généré par l’IA ne font que rendre le contenu créé par l’homme plus précieux.

Ces nouveaux termes surviennent alors que le contenu généré par l’IA a inondé Internet depuis qu’OpenAI a lancé ChatGPT en novembre dernier. Au 28 août, NewsGuard, une société qui évalue la fiabilité des sites Web d’information, a identifié 452 « médias peu fiables générés par l’IA, avec peu ou pas de surveillance humaine » qui contiennent des articles remplis d’erreurs. Les sites générés par l’IA avec des noms génériques comme iBusiness Day, Ireland Top News et Daily Time Update peuvent attirer les consommateurs en tant que sources d’informations précises, ce qui favoriserait la propagation de la désinformation, selon NewsGuard.

Ce ne sont pas seulement les sites Web générés par l’IA qui ont produit des articles remplis d’inexactitudes. En janvier, la publication technologique CNET a publié 77 articles utilisant un « moteur d’IA conçu en interne » et a dû apporter des corrections importantes après avoir appris que ses articles étaient criblés d’erreurs mathématiques de base. Quelques mois plus tard, Gizmodo a critiqué les dirigeants de l’entreprise après que le média ait publié des articles écrits par l’IA contenant des inexactitudes factuelles. Plus récemment, Microsoft a supprimé une série d’articles de son blog de voyage, dont l’un s’est avéré être un article généré par l’IA recommandant aux visiteurs d’Ottawa de visiter la Banque alimentaire d’Ottawa et d’envisager d’y aller l’estomac vide.

Maintenant que les détecteurs de contenu IA comme ZeroGPT et Text Classifier d’OpenAI se sont révélés peu fiables, les gens peuvent avoir plus de mal à découvrir des informations précises en ligne sous la surveillance humaine, Kai-Cheng Yang, un chercheur en sciences sociales informatiques qui a écrit un article sur le des acteurs malveillants qui pourraient profiter du chatbot d’OpenAI, a déclaré précédemment à Insider.

« Les progrès des outils d’IA déformeront de façon permanente l’idée de l’information en ligne », a déclaré Yang.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite