Un site d’information a utilisé l’IA pour écrire des articles. Ce fut un désastre journalistique.
Plus précisément, il s’avère que les bots ne sont pas meilleurs en journalisme et peut-être un peu pires que leurs futurs maîtres humains.
Mardi, Crumpe a commencé à ajouter de longs avis de correction à certains de ses articles générés par l’IA après Futurism, un autre site technologique, a appelé les histoires pour contenir des erreurs très stupides.
Un article automatisé sur les intérêts composés, par exemple, a déclaré à tort qu’un dépôt de 10 000 $ portant intérêt à 3 % rapporterait 10 300 $ après la première année. Non. Un tel dépôt ne rapporterait en fait que 300 $.
Plus largement, CNET et la publication sœur Bankrate, qui a également publié des histoires écrites par des bots, ont maintenant révélé des scrupules quant à l’exactitude des dizaines d’articles automatisés qu’ils ont publiés depuis novembre.
De nouveaux avis ajoutés à plusieurs autres travaux générés par l’IA indiquent que nous examinons actuellement cette histoire pour en vérifier l’exactitude, et que si nous trouvons des erreurs, nous mettrons à jour et publierons des corrections.
L’intelligence artificielle a été déployée pour gérer la reconnaissance faciale, recommander des films et compléter automatiquement votre saisie. La nouvelle que CNET l’utilisait pour générer des histoires entières, cependant, a envoyé une vague d’anxiété dans les médias d’information pour sa menace apparente pour les journalistes. Le ChatGPT au cerveau robotique mais conversationnel peut produire une copie sans pause déjeuner ou salle de bain et ne se met jamais en grève.
Jusqu’à la semaine dernière, CNET avait timidement attribué ses histoires écrites par machine à CNET Money Staff. Ce n’est qu’en cliquant sur la signature qu’un lecteur apprendrait que l’article a été produit par la technologie d’automatisation elle-même, un euphémisme pour l’IA.
L’entreprise s’est révélée claire après qu’un responsable marketing aux yeux perçants nommé Gael Breton a attiré l’attention sur les étiquettes sur Twitter. CNET a ensuite changé les bylines en CNET Money, a ajouté quelques clarifications (cet article a été assisté par un moteur d’IA) et a en outre stipulé que les histoires étaient soigneusement éditées et vérifiées par un éditeur de notre équipe éditoriale.
Si c’est vrai, alors il s’agit principalement d’un échec éditorial, a déclaré Hany Farid, professeur de génie électrique et d’informatique à l’Université de Californie à Berkeley et expert en technologies deepfake.
Je me demande si la voix apparemment autoritaire de l’IA a conduit les rédacteurs à baisser leur garde, a-t-il ajouté, et [were] moins prudents qu’ils ne l’ont peut-être été avec un journaliste humain écrivant.
La copie écrite par un robot CNET est généralement impossible à distinguer de la copie produite par l’homme, bien qu’elle ne soit pas exactement vive ou scintillante. C’est, eh bien, robotique : utile mais laborieux, empli de clichés, manquant d’humour ou de culot ou de tout ce qui ressemble à des émotions ou à des idiosyncrasies.
Le choix entre une banque et une coopérative de crédit n’est pas unique, lit une histoire écrite par l’IA publiée par CNET en décembre. Vous devrez peser le pour et le contre avec vos objectifs pour déterminer votre meilleur ajustement.
Conseille une autre histoire écrite par un bot : plus vous laissez longtemps votre investissement dans un compte d’épargne ou un compte du marché monétaire, plus vous avez de temps pour tirer parti de la puissance de la capitalisation.
D’autres éléments provenant des robots CNET incluent des histoires telles que Devriez-vous casser un premier CD pour un meilleur tarif ? et qu’est-ce que Zelle et comment ça marche ?
Le déploiement de la technologie s’inscrit dans un contexte d’inquiétude croissante concernant les utilisations et les abus potentiels des moteurs d’IA sophistiqués. Les capacités étonnantes de la technologie ont conduit certains districts scolaires à envisager de l’interdire de peur que les élèves ne l’utilisent pour rogner sur les devoirs de classe et les devoirs.
Dans une déclaration publiée la semaine dernière, la rédactrice en chef de CNET, Connie Guglielmo, a qualifié l’utilisation de l’IA par ses sites d’expérience visant non pas à remplacer les journalistes mais à faciliter leur travail. L’objectif est de voir si la technologie peut aider notre équipe de journalistes et de rédacteurs occupés à couvrir des sujets dans une perspective à 360 degrés, a-t-elle écrit. Guglielmo n’a pas répondu à une demande de commentaire.
Bankrate et CNET ont déclaré mardi dans un communiqué que les publications examinaient activement toutes nos pièces assistées par l’IA pour s’assurer qu’aucune autre inexactitude ne traversait le processus d’édition, car les humains commettent également des erreurs. Nous continuerons à publier les corrections nécessaires.
Même avant la grande expérience de CNET, d’autres organes de presse avaient utilisé l’automatisation dans une capacité plus limitée pour augmenter et analyser leur travail. L’Associated Press a commencé à utiliser l’IA en 2014 pour produire des articles sur les bénéfices des entreprises. Il a également utilisé la technologie pour les récapitulatifs sportifs.
Mais le système AP est relativement grossier, il insère essentiellement de nouvelles informations dans des histoires pré-formatées, comme un jeu de Mad Libs par rapport à la création automatique d’articles de long métrage par CNET.
D’autres ont créé des outils internes pour évaluer le travail humain, comme un bot du Financial Times qui vérifie si leurs histoires citent trop d’hommes. Le Consortium international des journalistes d’investigation a lancé l’IA sur des millions de pages de documents financiers et juridiques divulgués pour identifier les détails qui méritent un examen plus approfondi de la part de ses journalistes.
Au-delà des reportages imparfaits, les histoires écrites par l’IA soulèvent quelques questions pratiques et éthiques auxquelles les journalistes commencent seulement à réfléchir.
L’un est le plagiat : l’écrivain Alex Kantrowitz trouvé la semaine dernière qu’un article de Substack écrit par un mystérieux auteur nommé Petra contenait des phrases et des phrases tirées d’une chronique que Kantrowitz avait publiée deux jours plus tôt. Il a découvert plus tard que Petra avait utilisé des programmes d’IA pour remixer le contenu d’autres sources.
Après tout, étant donné que les programmes d’IA assemblent des articles en parcourant des montagnes d’informations accessibles au public, même les meilleures histoires automatisées sont essentiellement des clips, dépourvus de nouvelles découvertes ou de reportages originaux.
Ces outils ne peuvent pas sortir et signaler ou poser des questions, a déclaré Matt MacVey, qui dirige un projet d’IA et de nouvelles locales au NYC Media Lab de l’Université de New York. Ainsi, leurs histoires n’innoveront jamais et ne livreront jamais de scoop.
La plus grande crainte à propos de l’IA chez les journalistes, cependant, est de savoir si elle représente une menace existentielle. L’emploi dans les médias d’information diminue depuis des décennies et les machines ne peuvent qu’accélérer le problème.
C’est peut-être l’histoire classique de l’automatisation réduisant le besoin de travail humain et/ou changeant la nature du travail humain, a déclaré Farid. La différence maintenant est que l’automatisation ne perturbe pas le travail manuel, mais perturbe plutôt le travail hautement créatif qui était considéré comme hors de portée de l’automatisation.
Les trolls des médias sociaux ont longtemps nargué les journalistes nouvellement licenciés avec l’épithète Apprendre à coder. Malgré des défauts évidents, l’essor des reportages sur l’IA suggère que les codes en cours de création pourraient un jour être ce qui chasserait les journalistes de leurs salles de rédaction.