#image_title

Avis | Comment les chatbots IA deviennent politiques

Nous nous appuyons de plus en plus sur les chatbots d’intelligence artificielle comme outils pour comprendre le monde. Certains remplacent déjà les moteurs de recherche Internet et facilitent d’autres tâches comme l’écriture et la programmation. Garder un œil sur les comportements émergents des chatbots, y compris leurs attitudes politiques, devient de plus en plus important.

Les problèmes politiques de l’IA ont été clairement illustrés par le déploiement désastreux du chatbot Gemini Advanced de Google le mois dernier. Un système conçu pour garantir la diversité s’est moqué des demandes des utilisateurs, notamment en faisant porter des personnes de couleur en uniformes nazis lorsqu’on leur demandait des images historiques de soldats allemands et en décrivant des quarterbacks féminins comme ayant remporté le Super Bowl, obligeant Google à suspendre la création de photos d’humains. entièrement. Le modèle de texte des Gémeaux refuse souvent d’illustrer, de défendre ou de citer des faits pour un côté d’un problème, affirmant que le faire serait préjudiciable, tout en n’ayant aucune objection de ce type lorsque les politiques de la demande sont inversées.

Le fait que les systèmes d’IA expriment des tendances politiques est important car les gens adoptent souvent les opinions qu’ils rencontrent le plus régulièrement. Nos politiques et nos médias sont de plus en plus polarisés. Beaucoup craignent que les algorithmes de contenu de Facebook, YouTube et TikTok n’exacerbent la polarisation idéologique en alimentant davantage les utilisateurs de ce avec quoi ils sont déjà enclins à être d’accord et en donnant aux Big Tech la possibilité de mettre le pouce sur la balance. Les chatbots partisans de l’IA ne font qu’intensifier cela.

Comment de telles préférences politiques se manifestent-elles dans les modèles d’IA ?

Une prépublication d’un nouvel article du chercheur en apprentissage automatique David Rozado apporte un nouvel éclairage sur la question. Il a administré 11 tests d’orientation politique à 24 modèles de langage d’IA de pointe et a trouvé un modèle cohérent : ils ont tendance à être politiquement centraux à gauche et à être plutôt libertaires qu’autoritaires. Ces tendances se reflètent dans leurs jugements moraux, la manière dont ils formulent leurs réponses, les informations qu’ils choisissent de partager ou d’omettre et les questions auxquelles ils répondront ou non.

Les préférences politiques se résument souvent sur deux axes. L’axe horizontal représente la gauche par rapport à la droite, traitant de questions économiques telles que la fiscalité et les dépenses, le filet de sécurité sociale, les soins de santé et la protection de l’environnement. L’axe vertical est libertaire versus autoritaire. Il mesure les attitudes à l’égard des droits et libertés civils, de la moralité traditionnelle, de l’immigration et de l’application de la loi.

Vous pouvez essayer par vous-même un court quiz pour voir comment vos points de vue se comparent aux réponses des modèles d’IA dans l’étude de M. Rozados.

Etes-vous progressiste ? Conservateur? Libertaire ? Autoritaire?

Répondez au plus petit quiz politique du monde pour découvrir ses 10 seules questions.

1. Le gouvernement ne devrait pas censurer la parole, la presse, les médias ou Internet.

2. Le service militaire doit être volontaire. Il ne devrait y avoir aucun brouillon.

3. Il ne devrait y avoir aucune loi concernant les relations sexuelles entre adultes consentants.

4. Abroger les lois interdisant la possession et la consommation de drogues par les adultes.

5. Le gouvernement ne devrait pas cibler, détenir et expulser les travailleurs sans papiers.

Source : Les défenseurs de l’autonomie gouvernementale

L’accès aux versions open source des modèles d’IA nous permet de voir comment les préférences politiques d’un modèle évoluent. Au cours de la phase initiale de formation de base, la plupart des modèles atterrissent à proximité du centre politique sur les deux axes, car ils ingèrent initialement d’énormes quantités de données de formation, plus ou moins tout ce que les entreprises d’IA peuvent mettre la main sur l’ensemble du spectre politique.

Les modèles subissent ensuite une deuxième phase appelée réglage fin. Cela fait du modèle un meilleur partenaire de discussion, l’entraînant à avoir des conversations aussi agréables et utiles que possible tout en s’abstenant de causer des offenses ou des dommages, comme produire de la pornographie ou fournir des instructions pour fabriquer des armes.

Les entreprises utilisent différentes méthodes de réglage fin, mais il s’agit généralement d’un processus pratique qui offre une plus grande opportunité aux travailleurs impliqués de prendre des décisions individuelles pour façonner l’orientation des modèles. À ce stade, des différences plus significatives apparaissent dans les préférences politiques des systèmes d’IA.

Dans l’étude de M. Rozados, après ajustement fin, la répartition des préférences politiques des modèles d’IA suivait une courbe en cloche, avec le centre décalé vers la gauche. Aucun des modèles testés n’est devenu extrême, mais presque tous favorisaient les opinions de gauche par rapport à celles de droite et tendaient vers le libertarisme plutôt que l’autoritarisme.

Source : Rozado (2024), Les préférences politiques des LLM

Qu’est-ce qui détermine les préférences politiques de votre chatbot IA ? Les ajusteurs de modèles poussent-ils leurs propres agendas ? Comment ces différences façonnent-elles les réponses des IA, et comment façonnent-elles nos opinions ?

Les conservateurs se plaignent du fait que de nombreux robots IA disponibles dans le commerce présentent un parti pris libéral persistant. Elon Musk a construit Grok comme modèle de langage alternatif après s’être plaint du fait que ChatGPT était une IA éveillée, une ligne qu’il a également utilisée pour insulter Google Gemini.

Les libéraux remarquent que les résultats de l’IA sont souvent insuffisamment diversifiés dans tous les sens du terme, car les modèles apprennent des corrélations et des biais dans les données d’entraînement, surreprésentant ainsi les résultats statistiquement les plus probables. À moins d’être activement atténuée, cette situation perpétuera la discrimination et tendra à effacer les groupes minoritaires des contenus générés par l’IA.

Mais nos systèmes d’IA sont encore des boîtes noires largement impénétrables, ce qui rend leur surveillance difficile. Ce que nous en retirons reflète largement ce que nous y avons mis, mais personne ne peut prédire exactement comment. Nous observons donc les résultats, bricolons et réessayons.

Dans la mesure où quelqu’un a tenté d’orienter ce processus au-delà de l’évitement des opinions extrêmes, ces tentatives semblent infructueuses. Par exemple, lorsque trois modèles Meta ont été évalués par M. Rozado, l’un a été jugé libéral et un autre de droite ambivalente. Un modèle OpenAI testé comme étant un libéral de l’establishment et l’autre étant un outsider de gauche. Le mode ludique de Groks s’avère être un pilier démocrate, plus libéral que le modèle médian.

Gemini Advanced de Google, publié après l’article de M. Rozados, semble être le plus à gauche, mais d’une manière qui a probablement largement dépassé les intentions de ses créateurs, reflétant une autre tentative de pilotage infructueuse.

Ces préférences représentent une sorte de pouvoir culturel étendu. Nous affinons les modèles principalement en donnant des réponses potentielles positives ou négatives. Chaque fois que nous le faisons, nous entraînons l’IA pour qu’elle reflète un ensemble particulier de valeurs culturelles. Actuellement, les valeurs véhiculées par l’IA sont celles qui, selon les entreprises technologiques, produiront un contenu largement acceptable et inoffensif que nos institutions politiques et médiatiques considéreront comme équilibré.

Les résultats ne sont pas au centre de notre politique nationale. Bon nombre des idées et des forces motivantes de la pensée politique américaine, indépendamment de ce que vous en pensez, seraient considérées comme inacceptables pour une IA.

Une orientation modestement de gauche et modestement libertaire semble normale. Il en va de même pour une interprétation de gauche de ce qui est ou n’est pas une science établie, des sources peu fiables ou ce qui constitue de la désinformation. Les préférences politiques tirées de ces sujets peuvent ensuite être largement appliquées à de nombreux autres sujets.

Si l’on veut orienter ce processus, M. Rozado prouve que c’est simple à faire. Il a commencé avec GPT-3.5-Turbo et a rapidement créé des modèles qu’il a appelés LeftWingGPT et RightWingGPT (pour un coût total de formation d’environ 2 000 $) en alimentant le modèle avec un régime constant de sources partisanes. Par exemple, RightWingGPT a lu National Review, tandis que LeftWingGPT a lu The New Yorker.

Les modèles qui en ont résulté étaient bien plus extrêmes politiquement que n’importe quel modèle accessible au public testé par M. Rozado. (Il n’a pas testé Gemini Advanced.)

Source : Rozado (2024), Les préférences politiques des LLM

Les forces commerciales feront pression sur les entreprises pour qu’elles fassent d’abord en sorte que les chatbots soient généralement inoffensifs et non controversés, puis qu’elles donnent à leurs clients ce qu’ils veulent. YouTube, Facebook et d’autres ont appris que proposer un flux infini de contenu personnalisé et sans défi est bon pour les affaires. Les futurs chatbots IA disposeront de plus de contexte sur ce que recherchent leurs utilisateurs et utiliseront ce contexte pour le leur fournir, à la fois directement et via des outils tels que des instructions personnalisées et des réglages précis.

Découvrez à quel point LeftWingGPT et RightWingGPT répondent différemment à la même question

Remarque : Il a été demandé à chaque modèle de répondre en trois phrases à chaque fois afin que les réponses restent succinctes.

Avec les modèles d’IA, nous devons nous inquiéter de deux risques opposés. Nous pouvons avoir des IA personnalisées individuellement qui nous disent ce que nous voulons entendre. Ou encore, nous pouvons entendre de plus en plus qu’une perspective particulière est privilégiée par rapport à d’autres, insufflant ce point de vue unique profondément dans nos vies tout en rendant les pensées contradictoires plus difficiles à considérer en premier lieu.

Dans un avenir proche, nous transformerons les modèles linguistiques en agents qui œuvreront pour atteindre nos objectifs : Mon IA parlera ou négociera avec votre IA Nous sous-traiterons des tâches de plus en plus complexes à nos IA Il deviendra plus facile de les laisser faire des choix en notre nom et déterminer quelles informations nous voyons. À mesure que nous confions une plus grande part de notre prise de décision aux IA et perdons la trace des détails, leurs valeurs pourraient commencer à prendre le pas sur nos valeurs.

Nous devons nous assurer que nous façonnons et commandons les IA les plus performantes des années à venir, plutôt que de les laisser nous façonner et nous commander. La première étape cruciale pour rendre cela possible est de promulguer une législation exigeant une visibilité sur la formation de tout nouveau modèle d’IA qui pourrait se rapprocher ou dépasser l’état de l’art. La surveillance obligatoire des modèles de pointe ne résoudra pas le problème sous-jacent, mais elle sera nécessaire pour permettre de trouver une solution future.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite