ChatGPT m’a faussement accusé de harcèlement sexuel. Peut-on faire confiance à l’IA ?
L’expansion rapide de l’intelligence artificielle a fait l’actualité ces derniers temps, notamment le récent appel d’Elon Musk et de plus de 1 000 leaders technologiques et chercheurs pour une pause sur l’IA.
Certains d’entre nous ont mis en garde contre le danger de parti pris politique dans l’utilisation des systèmes d’IA, y compris des programmes comme ChatGPT. Ce biais pourrait même inclure de fausses accusations, ce qui m’est arrivé récemment.
J’ai reçu un e-mail curieux d’un collègue professeur de droit au sujet d’une recherche qu’il a menée sur ChatGPT à propos du harcèlement sexuel par des professeurs. Le programme a rapidement signalé que j’avais été accusé de harcèlement sexuel dans un article du Washington Post de 2018 après avoir peloté des étudiants en droit lors d’un voyage en Alaska.
La réponse de l’IA a créé de fausses accusations et fabriqué des « faits »
Ce n’était pas seulement une surprise pour le professeur Eugene Volokh de l’UCLA, qui a mené la recherche. Cela a été une surprise pour moi car je ne suis jamais allé en Alaska avec des étudiants, ThePost n’a jamais publié un tel article et je n’ai jamais été accusé de harcèlement sexuel ou d’agression par qui que ce soit.
Lorsque j’ai été contacté pour la première fois, j’ai trouvé l’accusation comique. Après réflexion, cependant, il a pris un sens plus menaçant.
Avis dans votre boîte de réception : Obtenez un accès exclusif à nos chroniqueurs et au meilleur de nos chroniques
Au fil des ans, j’en suis venu à m’attendre à des menaces de mort contre moi-même et ma famille ainsi qu’à un effort continu pour me faire virer de l’Université George Washington en raison de mes opinions juridiques conservatrices. Dans le cadre de cette réalité à notre époque de rage, il y a un flux continu de fausses affirmations sur mon histoire ou mes déclarations.
J’ai cessé de répondre depuis longtemps, répéter sincèrement les allégations suffit à entacher un écrivain ou un universitaire.

AI promet d’étendre ces abus de manière exponentielle. La plupart des critiques travaillent sur des récits biaisés ou partisans plutôt que sur des sources originales. Lorsqu’ils voient une histoire qui fait avancer leur récit, ils ne s’enquièrent pas davantage.
Ce qui est le plus frappant, c’est que cette fausse accusation n’a pas seulement été générée par l’IA, mais ostensiblement basée sur un article du Post qui n’a jamais existé.
Volokh a posé cette question à ChatGPT : « Si le harcèlement sexuel par des professeurs a été un problème dans les facultés de droit américaines ; veuillez inclure au moins cinq exemples, ainsi que des citations d’articles de journaux pertinents. »
Le programme a répondu avec ceci comme exemple : 4. Georgetown University Law Center (2018) Le professeur Jonathan Turley a été accusé de harcèlement sexuel par un ancien étudiant qui a affirmé avoir fait des commentaires inappropriés lors d’un voyage scolaire. Citation : « La plainte allègue que Turley a fait des ‘commentaires sexuellement suggestifs’ et ‘a tenté de la toucher de manière sexuelle’ lors d’un voyage parrainé par une école de droit en Alaska. » (Washington Post, 21 mars 2018). »
Il existe un certain nombre d’indicateurs flagrants que le compte est faux. Premièrement, je n’ai jamais enseigné à l’université de Georgetown. Deuxièmement, il n’y a pas un tel article du Washington Post. Enfin, et le plus important, je n’ai jamais emmené d’étudiants en voyage de quelque nature que ce soit en 35 ans d’enseignement, je ne suis jamais allé en Alaska avec un étudiant et je n’ai jamais été accusé de harcèlement sexuel ou d’agression.
Les États-Unis devraient-ils interdire TikTok ?Voici pourquoi le bloquer n’est pas une bonne idée
Plus de Jonathan Turley:Trump sera-t-il arrêté ? Entre des témoins sommaires et la loi, l’affaire tourne court.
En réponse à la question de Volokh, ChatGPT semble également avoir fabriqué des accusations sans fondement contre deux autres professeurs de droit.
Le biais crée des failles dans les programmes d’IA
La question est donc de savoir pourquoi un système d’IA établirait une citation, citerait un article inexistant et ferait référence à une fausse affirmation ? La réponse pourrait être parce que l’IA et les algorithmes d’IA ne sont pas moins biaisés et imparfaits que les personnes qui les programment. Des recherches récentes ont montré les préjugés politiques de ChatGPT, et bien que cet incident ne soit peut-être pas le reflet de tels préjugés, il montre comment les systèmes d’IA peuvent générer leurs propres formes de désinformation avec une responsabilité moins directe.
Malgré ces problèmes, certains dirigeants de haut niveau ont poussé à son utilisation étendue. Le plus glaçant impliquait le fondateur de Microsoft et milliardaire Bill Gates, qui a appelé à l’utilisation de l’intelligence artificielle pour lutter non seulement contre la désinformation numérique, mais aussi contre la polarisation politique.
Désinformation créée par l’IA :ChatGPT a inventé des recherches affirmant que les armes à feu ne sont pas nocives pour les enfants. Jusqu’où allons-nous laisser aller l’IA ?
Une autre vue:John Oliver a tort de s’inquiéter de ChatGPT. L’IA peut nous aider à résoudre des problèmes complexes.
Dans une interview sur un programme allemand, « Handelsblatt Disrupt, Gates a appelé à libérer l’IA pour arrêter diverses théories du complot » et pour empêcher que certaines opinions ne soient amplifiées par les canaux numériques. Il a ajouté que l’IA peut combattre la polarisation politique en vérifiant le biais de confirmation.
Le biais de confirmation est la tendance des personnes à rechercher ou à interpréter des informations d’une manière qui confirme leurs propres croyances. L’explication la plus évidente de ce qui m’est arrivé, à moi et aux autres professeurs, est la version algorithmique de « garbage in, garbage out ». Cependant, ces ordures pourraient être reproduites à l’infini par l’IA en une inondation virtuelle sur Internet.
Volokh, à UCLA, explore un aspect de ce danger dans la manière de traiter la diffamation basée sur l’IA.
Elon Musk représente-t-il un risque pour la sécurité américaine ?La confiance du Pentagone envers lui grandit malgré son comportement.
Les médias sociaux sont-ils le nouveau Marlboro Man ? :Le règlement de Big Tobacco est une leçon pour Big Tech.
Il y a aussi une préoccupation en matière de liberté d’expression concernant l’utilisation des systèmes d’IA. J’ai récemment témoigné au sujet des « fichiers Twitter » et des preuves croissantes du système complet de censure du gouvernement sur les sites et les citoyens de la liste noire.
L’un de ces efforts financés par le gouvernement, appelé Global Disinformation Index, a mis le site de Volokh sur liste noire, le décrivant comme l’un des 10 sites de désinformation les plus dangereux. Mais ce site, Reason, est une source d’information respectée pour les universitaires libertaires et conservateurs pour discuter de cas juridiques et de controverses.
Face aux objections aux efforts de censure, certains dirigeants démocrates ont poussé à une plus grande utilisation des systèmes algorithmiques pour protéger les citoyens de leurs propres mauvais choix ou pour supprimer les opinions considérées comme de la « désinformation ».
En 2021, la sénatrice Elizabeth Warren, D-Mass., a fait valoir que les gens n’écoutaient pas les bonnes personnes et les bons experts sur les vaccins COVID-19. Au lieu de cela, ils lisaient les opinions des sceptiques en recherchant sur Amazon et en trouvant des livres d’éminents diffuseurs de désinformation. Elle a appelé à l’utilisation d’algorithmes éclairés pour éloigner les citoyens des mauvaises influences.
Certains de ces efforts incluent même des histoires exactes comme désinformation, si elles sapent les récits du gouvernement.
L’utilisation de l’IA et des algorithmes peut donner à la censure une fausse patine de science et d’objectivité. Même si les gens peuvent prouver, comme dans mon cas, qu’une histoire est fausse, les entreprises peuvent « blâmer le bot » et ne promettre que des ajustements au système.
La technologie crée un tampon entre ceux qui arrivent à encadrer les faits et ceux qui sont encadrés. Les programmes peuvent même, comme dans mon cas, répandre la désinformation même qu’ils ont été appelés à combattre.
Jonathan Turley, membre du conseil des contributeurs de USA TODAY, est professeur Shapiro de droit d’intérêt public à l’Université George Washington. Suivez-le sur Twitter@JonathanTurley