#image_title

L’année où l’IA a mangé Internet

Il y a un peu plus d’un an, le monde semblait prendre conscience des promesses et des dangers de l’intelligence artificielle lorsqu’OpenAI lançait ChatGPT, une application qui permet aux utilisateurs de converser avec un ordinateur d’une manière singulièrement humaine. En cinq jours, le chatbot comptait un million d’utilisateurs. En deux mois, il enregistrait cent millions d’utilisateurs mensuels, un nombre qui a maintenant presque doublé. Appelez cela l’année où beaucoup d’entre nous ont appris à communiquer, créer, tricher et collaborer avec des robots.

Peu de temps après la sortie de ChatGPT, Google a lancé son propre chatbot, Bard ; Microsoft a intégré le modèle OpenAI dans son moteur de recherche Bing ; Meta a lancé LLaMA ; et Anthropic a sorti Claude, un assistant IA de nouvelle génération pour vos tâches, quelle que soit leur échelle. Soudain, Internet semblait presque animé. Ce n’est pas que l’IA en elle-même soit nouvelle : en effet, l’intelligence artificielle est devenue une partie si courante de nos vies que nous la reconnaissons à peine lorsqu’un algorithme de Netflix recommande un film, qu’une société de carte de crédit détecte automatiquement une activité frauduleuse ou qu’Alexa d’Amazon fournit un résumé. des nouvelles du matin.

Mais, alors que ces IA fonctionnent en arrière-plan, souvent de manière scriptée et fragile, les chatbots sont réactifs et improvisés. Ils sont également imprévisibles. Lorsque nous leur demandons leur aide, en leur soumettant des questions sur des choses que nous ne connaissons pas ou en leur demandant une aide créative, ils génèrent souvent des choses qui n’existaient pas auparavant, apparemment à partir de rien. Poèmes, revues de littérature, essais, documents de recherche et pièces de théâtre en trois actes sont présentés dans un langage simple et indéniablement humain. C’est comme si le dieu dans la machine avait été créé à notre image. Demandez à ChatGPT d’écrire une chanson sur les voitures autonomes dans le style de Johnny Cash et vous obtiendrez peut-être des paroles comme celle-ci :

Je roule en solo, mais je ne suis jamais seul,
J’ai mon fusil de chasse IA, stable comme une pierre.
Sur la route sans fin, sous le ciel si vaste,
Un conducteur fantôme au volant, empreintes du passé.

Demandez-lui d’écrire une chanson sur les voitures autonomes dans le style de Giuseppe Verdi, et ChatGPT plante le décor d’un chant de ténor,

Voici la calèche sans chevaux ! (Voici la calèche sans cheval !)
Il se glisse dans la nuit, silencieux comme le destin. (Il glisse dans la nuit, silencieux comme le destin.)
L’ingéniosité de l’homme, fierté du progrès,
Dans cette danse de l’acier, nous tissons notre destin. (Dans cette danse d’acier, nous tissons notre destin.)

Bien qu’il soit peu probable qu’ils remportent de nombreuses récompenses, du moins jusqu’à présent, les chatbots tels que ChatGPT donnent l’impression que nos appareils intelligents sont stupides. Ils connaissent non seulement les langues étrangères, mais aussi les langages de codage ; ils peuvent résumer rapidement de longs documents juridiques et financiers ; ils commencent à diagnostiquer des problèmes de santé ; ils peuvent réussir l’examen du barreau sans étudier. D’un autre côté, nous pourrions être amenés à penser que les modèles d’IA sont en réalité plutôt qu’artificiellement intelligents, et qu’ils comprennent la signification et les implications du contenu qu’ils fournissent. Ils ne. Ce sont, selon les mots de la linguiste Emily Bender et de trois co-auteurs, des perroquets stochastiques. Il ne faut pas oublier que, avant que l’IA puisse être considérée comme intelligente, elle a dû engloutir une vaste tranche de l’intelligence humaine. Et avant d’apprendre à collaborer avec des robots, il a fallu leur apprendre à collaborer avec nous.

Pour commencer à comprendre le fonctionnement de ces chatbots, nous avons dû maîtriser un nouveau vocabulaire, depuis les grands modèles de langage (LLM) et les réseaux de neurones jusqu’au traitement du langage naturel (NLP) et à l’IA générative. Nous connaissons désormais les grandes lignes : les chatbots ont englouti Internet et l’a analysé avec une sorte d’apprentissage automatique qui imite le cerveau humain ; ils enchaînent statistiquement les mots, en fonction des mots et des expressions qui vont généralement ensemble. Pourtant, l’inventivité de l’intelligence artificielle reste largement impénétrable, comme nous l’avons découvert lorsque les chatbots hallucinent.

Googles Bard, par exemple, a inventé des informations sur le télescope James Webb. Bing de Microsoft a insisté sur le fait que la chanteuse Billie Eilish se produisait à la mi-temps du Super Bowl 2023. Je n’avais pas compris que ChatGPT pouvait fabriquer des dossiers, a déclaré un avocat dont le dossier du tribunal fédéral s’est avéré rempli de fausses citations et d’avis judiciaires inventés fournis par ChatGPT. (Le tribunal a infligé une amende de cinq mille dollars.) En petits caractères, ChatGPT reconnaît qu’il n’est peut-être pas fiable : ChatGPT peut faire des erreurs. Pensez à vérifier les informations importantes. Bizarrement, une étude récente suggère qu’au cours de la dernière année, ChatGPT est devenu moins précis lorsqu’on lui demande d’effectuer certaines tâches. Les chercheurs émettent l’hypothèse que cela a quelque chose à voir avec le matériel sur lequel il s’est formé, mais comme OpenAI ne partagera pas ce qu’il utilise pour former son LLM, ce n’est qu’une conjecture.

Le fait de savoir que les chatbots font des erreurs n’a pas empêché les lycéens et les étudiants d’être parmi leurs premiers adeptes les plus fervents, utilisant les chatbots pour rechercher et rédiger leurs articles, résoudre des ensembles de problèmes et écrire du code. (Pendant la semaine des examens, en mai dernier, un de mes étudiants s’est promené dans la bibliothèque et a vu que presque tous les ordinateurs portables étaient ouverts à ChatGPT.) Plus de la moitié des jeunes qui ont répondu à une récente enquête sur Junior Achievement ont déclaré que l’utilisation d’un chatbot aider aux devoirs était, à leur avis, de la triche. Pourtant, près de la moitié ont déclaré qu’ils l’utiliseraient probablement.

Les administrateurs scolaires n’étaient pas moins en conflit. Ils n’arrivent pas à décider si les chatbots sont des agents de tromperie ou des outils d’apprentissage. En janvier, David Banks, le chancelier des écoles de la ville de New York, a interdit ChatGPT ; un porte-parole a déclaré au Washington Poste que le chatbot ne développe pas les compétences de pensée critique et de résolution de problèmes, qui sont essentielles à la réussite scolaire et tout au long de la vie. Quatre mois plus tard, Banks a annulé l’interdiction, la qualifiant d’impulsive et fondée sur la peur, et affirmant qu’elle négligeait le potentiel de l’IA générative pour soutenir les étudiants et les enseignants, ainsi que la réalité dans laquelle nos étudiants participent et travailleront. un monde où la compréhension de l’IA générative est cruciale. Ensuite, il y a eu un professeur de Texas A&M qui a décidé d’utiliser ChatGPT pour éliminer les étudiants qui trichaient avec ChatGPT. Après que le robot ait déterminé que toute la classe avait réussi, le professeur a menacé de faire échouer tout le monde. Le problème était que ChatGPT hallucinait. (Il existe d’autres programmes d’IA pour attraper les tricheurs ; la détection des chatbots est une industrie en croissance.) Dans un sens, nous sommes tous ces professeurs qui testent en version bêta des produits dont nous pouvons surestimer les capacités, mal interpréter ou tout simplement ne pas comprendre.

L’intelligence artificielle est déjà utilisée pour générer des rapports financiers, des textes publicitaires et des actualités sportives. En mars, Greg Brockman, co-fondateur d’OpenAI et son président, prédisait joyeusement qu’à l’avenir, les chatbots aideraient également à écrire des scénarios de films et à réécrire des scènes que les téléspectateurs n’aimaient pas. Deux mois plus tard, la Writers Guild of America s’est mise en grève, exigeant un contrat qui nous protégerait tous des films minables générés par l’IA. Ils ont senti que toute plateforme d’IA capable de produire un travail crédible dans de nombreux domaines humains pourrait constituer une menace existentielle pour la créativité elle-même.

En septembre, alors que les scénaristes négociaient la fin de leur grève de cinq mois, après avoir persuadé les studios de renoncer aux scripts d’IA, la Guilde des auteurs, ainsi qu’un groupe d’éminents romanciers, ont intenté un recours collectif contre OpenAI. Ils ont allégué que, lorsque l’entreprise a exploré le Web, elle a utilisé leurs œuvres protégées par le droit d’auteur sans consentement ni compensation. Bien que les auteurs ne puissent pas savoir avec certitude que l’entreprise s’était appropriée leurs livres, étant donné la politique peu ouverte d’OpenAI en matière de partage de ses données de formation, la plainte indiquait que, dès le début, ChatGPT répondait aux requêtes sur des livres spécifiques avec des citations textuelles, suggérant que le LLM sous-jacent doit avoir ingéré ces livres dans leur intégralité. (Maintenant, le chatbot a été recyclé pour dire : « Je ne peux pas fournir d’extraits textuels de textes protégés par le droit d’auteur.) Certaines entreprises vendent désormais des invites pour aider les utilisateurs à se faire passer pour des écrivains bien connus. Et un écrivain qui peut être facilement imité ne vaut peut-être pas grand-chose.

En juillet, un rapport de l’association littéraire à but non lucratif STYLO L’Amérique a déclaré que l’IA générative menace la liberté d’expression en intensifiant la diffusion de la désinformation et les abus en ligne. Il existe également un risque que les gens perdent confiance dans la langue elle-même, et donc les uns dans les autres, souligne le rapport. Ces dangers s’étendent désormais au-delà de la parole écrite. OpenAI a dévoilé un moteur, DALL-E 2, qui transforme le texte en images artificielles ; quelques mois plus tard, Stability AI a publié un outil similaire, Stable Diffusion. Selon le Center for Artistic Inquiry and Reporting, l’art généré par l’IA est vampirique, se régale des générations passées d’œuvres d’art et constitue sans doute le plus grand braquage d’art de l’histoire. Aussi amusant et magique que soit de créer de l’art de cette manière, en particulier pour ceux d’entre nous qui ont des difficultés artistiques, les scènes photoréalistes d’événements qui ne se sont pas produits constituent également une menace pour la vérité. N’importe qui peut inciter un agent d’IA à produire l’image d’un homme remplissant une urne ou d’une confrontation entre manifestants et policiers. (Je sais, parce que je l’ai fait et les résultats étaient quelque peu réalistes.)

Bien que des efforts soient en cours pour filigraner les images générées par l’IA, les chercheurs n’ont pas réussi jusqu’à présent à développer un système de filigrane qui ne puisse être compromis par des outils largement disponibles ; ils ont également pu ajouter de faux filigranes à de vraies images. OpenAI permet toujours aux utilisateurs de supprimer les filigranes à volonté.

En mars, plus d’un millier de technologues, dont Elon Musk et Steve Wozniak, co-fondateur d’Apple, ont signé une lettre appelant les sociétés d’IA à suspendre pendant six mois leurs travaux sur leurs technologies les plus avancées, afin de laisser la place à une sorte de réglementation. . On y lisait notamment :

Devrait laissons-nous les machines inonder nos canaux d’information de propagande et de mensonges ?Devrait automatisons-nous tous les travaux, y compris les plus satisfaisants ? DevraitDéveloppons-nous des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ?
Devrait risquons-nous de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus.

Il ne s’agissait pas là de préoccupations théoriques. Par exemple, une équipe de recherche d’IBM n’a eu besoin que de cinq minutes pour inciter ChatGPT à rédiger des e-mails de phishing très convaincants. D’autres chercheurs ont utilisé l’IA générative pour écrire des logiciels malveillants capables de contourner les protocoles de sécurité, ce qui en fait une ressource potentielle pour les cybercriminels. Goldman Sachs estime que l’IA pourrait bientôt remplacer trois cents millions d’emplois à temps plein.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite