L’investissement technologique que nous devrions faire maintenant pour éviter le désastre de l’IA
Il y a de bonnes raisons de craindre que les systèmes d’IA comme ChatGPT et GPT4 ne nuisent à la démocratie. Le débat public peut être submergé par des quantités industrielles d’arguments autogénérés. Les gens pourraient tomber dans des trous de lapin politique, être pris par des conneries superficiellement convaincantes ou obsédés par des relations folies deux avec des personnalités de la machine qui n’existent pas vraiment.
Ces risques peuvent être les retombées d’un monde où les entreprises déploient des systèmes d’IA mal testés dans une bataille pour les parts de marché, chacune espérant établir un monopole.
Mais la dystopie n’est pas le seul avenir possible. L’IA pourrait faire progresser le bien public, et non le profit privé, et renforcer la démocratie au lieu de la saper. Cela nécessiterait une IA non pas sous le contrôle d’un grand monopole technologique, mais plutôt développée par le gouvernement et accessible à tous les citoyens. Cette option publique est à notre portée si nous le voulons.
Une IA conçue pour le bien public pourrait être conçue sur mesure pour les cas d’utilisation où la technologie peut le mieux aider la démocratie. Il pourrait vraisemblablement éduquer les citoyens, les aider à délibérer ensemble, résumer ce qu’ils pensent et trouver un éventuel terrain d’entente. Les politiciens peuvent utiliser de grands modèles linguistiques, ou LLM, comme GPT4 pour mieux comprendre ce que veulent leurs citoyens.
Aujourd’hui, les systèmes d’IA de pointe sont contrôlés par des entreprises technologiques multimilliardaires : Google, Meta et OpenAI en lien avec Microsoft. Ces entreprises décident de la manière dont nous interagissons avec leurs IA et du type d’accès dont nous disposons. Ils peuvent diriger et façonner ces IA pour se conformer à leurs intérêts commerciaux. Ce n’est pas le monde que nous voulons. Au lieu de cela, nous voulons des options d’IA qui soient à la fois des biens publics et orientées vers le bien public.
Nous savons que les LLM existants sont formés sur du matériel recueilli sur Internet, ce qui peut refléter des préjugés racistes et de la haine. Les entreprises tentent de filtrer ces ensembles de données, d’affiner les LLM et d’ajuster leurs sorties pour éliminer les biais et la toxicité. Mais les fuites d’e-mails et de conversations suggèrent qu’ils se précipitent sur le marché des produits à moitié cuits dans une course pour établir leur propre monopole.
Ces entreprises prennent des décisions aux conséquences énormes pour la démocratie, mais avec peu de contrôle démocratique. Nous n’entendons pas parler des compromis politiques qu’ils font. Les chatbots et les moteurs de recherche alimentés par LLM favorisent-ils certains points de vue par rapport à d’autres ? Contournent-ils complètement les sujets controversés ? Actuellement, nous devons faire confiance aux entreprises pour nous dire la vérité sur les compromis auxquels elles sont confrontées.
Une option publique LLM fournirait une source d’information indépendante vitale et un terrain d’essai pour des choix technologiques à fortes conséquences démocratiques. Cela pourrait fonctionner un peu comme les régimes publics de soins de santé, qui augmentent l’accès aux services de santé tout en offrant plus de transparence dans les opérations du secteur et en exerçant une pression productive sur les prix et les caractéristiques des produits privés. Cela nous permettrait également de déterminer les limites des LLM et d’orienter leurs applications en tenant compte de celles-ci.
Nous savons que les LLM hallucinent souvent, déduisant des faits qui ne sont pas réels. Il n’est pas clair s’il s’agit d’un défaut inévitable de leur fonctionnement ou s’il peut être corrigé. La démocratie pourrait être sapée si les citoyens font confiance à des technologies qui inventent des choses au hasard, et les entreprises qui essaient de vendre ces technologies ne peuvent pas faire confiance pour admettre leurs défauts.
Mais une option publique AI pourrait faire plus que vérifier l’honnêteté des entreprises technologiques. Il pourrait tester de nouvelles applications susceptibles de soutenir la démocratie plutôt que de la saper.
De toute évidence, les LLM pourraient nous aider à formuler et à exprimer nos perspectives et nos positions politiques, en rendant les arguments politiques plus convaincants et éclairés, que ce soit dans les médias sociaux, les lettres à l’éditeur ou les commentaires aux agences de réglementation en réponse aux propositions politiques. Nous ne voulons pas dire par là que l’IA remplacera les humains dans le débat politique, mais seulement qu’ils peuvent nous aider à nous exprimer. Si vous avez déjà utilisé une carte de vœux Hallmark ou signé une pétition, vous avez déjà démontré que vous êtes d’accord pour accepter de l’aide pour exprimer vos sentiments personnels ou vos convictions politiques. L’IA facilitera la génération de premiers brouillons, fournira une aide à l’édition et suggérera des formulations alternatives. La façon dont ces usages de l’IA sont perçus changera avec le temps, et il y a encore beaucoup de place pour l’amélioration des LLM, mais leur pouvoir d’assistance est réel. Les gens testent et spéculent déjà sur leur potentiel pour la rédaction de discours, le lobbying et les messages de campagne. Les personnes très influentes comptent souvent sur des rédacteurs de discours et du personnel professionnels pour les aider à développer leurs pensées, et l’IA pourrait jouer un rôle similaire pour les citoyens ordinaires.
Si le problème des hallucinations peut être résolu, les LLM pourraient également devenir des explicateurs et des éducateurs. Imaginez que des citoyens puissent interroger un LLM qui possède une connaissance de niveau expert d’une question politique ou qui maîtrise les positions d’un candidat ou d’un parti particulier. Au lieu d’avoir à analyser des déclarations fades et évasives calibrées pour un public de masse, les citoyens individuels pourraient acquérir une réelle compréhension politique grâce à des séances de questions-réponses avec des LLM qui pourraient être infailliblement disponibles et infiniment patients d’une manière qu’aucun humain ne pourrait jamais être.
Enfin, et de manière plus ambitieuse, l’IA pourrait contribuer à faciliter la démocratie radicale à grande échelle. Comme l’a observé Cosma Shalizi, professeur de statistiques à Carnegie Mellon, nous déléguons les décisions aux politiciens élus en partie parce que nous n’avons pas le temps de délibérer sur chaque question. Mais l’IA pourrait gérer des conversations politiques massives dans les salons de discussion, sur les sites de réseaux sociaux et ailleurs : identifier des positions communes et les résumer, faire apparaître des arguments inhabituels qui semblent convaincants pour ceux qui les ont entendus, et réduire au minimum les attaques et les insultes.
Les chatbots IA pourraient organiser des assemblées publiques nationales électroniques et résumer automatiquement les points de vue des divers participants. Ce type de débat civique modéré par l’IA pourrait également être une alternative dynamique aux sondages d’opinion. Les politiciens se tournent vers les sondages d’opinion pour capturer des instantanés de l’opinion populaire, car ils ne peuvent entendre directement qu’un petit nombre d’électeurs, mais veulent comprendre où les électeurs sont d’accord ou en désaccord.
À plus long terme, ces technologies pourraient aider les groupes à parvenir à un consensus et à prendre des décisions. Les premières expériences de la société d’intelligence artificielle DeepMind suggèrent que les LLM peuvent jeter des ponts entre les personnes en désaccord, les aidant à parvenir à un consensus. L’écrivain de science-fiction Ruthanna Emrys, dans son remarquable roman Un jardin à moitié construitimagine comment l’IA pourrait aider les gens à avoir de meilleures conversations et à prendre de meilleures décisions plutôt que de profiter de ces préjugés pour maximiser les profits.
Cet avenir passe par une option publique d’IA. En construire un, par le biais d’un programme de développement et de déploiement de modèles dirigé par le gouvernement, nécessiterait beaucoup d’efforts et les plus grands défis dans le développement de systèmes publics d’IA seraient politiques.
Certains outils technologiques sont déjà accessibles au public. En toute honnêteté, des géants de la technologie comme Google et Meta ont rendu nombre de leurs derniers et meilleurs outils d’IA disponibles gratuitement pendant des années, en coopération avec la communauté universitaire. Bien qu’OpenAI n’ait pas rendu publics le code source et les fonctionnalités entraînées de ses derniers modèles, des concurrents tels que Hugging Face l’ont fait pour des systèmes similaires.
Alors que les LLM à la pointe de la technologie obtiennent des résultats spectaculaires, ils le font en utilisant des techniques qui sont pour la plupart bien connues et largement utilisées dans l’ensemble de l’industrie. OpenAI n’a révélé que des détails limités sur la façon dont il a formé son dernier modèle, mais son avancée majeure par rapport à son modèle ChatGPT précédent n’est pas un secret : un processus de formation multimodal qui accepte à la fois les images et les entrées textuelles.
Financièrement, les plus grands LLM formés aujourd’hui coûtent des centaines de millions de dollars. C’est au-delà de la portée des gens ordinaires, mais c’est une somme dérisoire par rapport aux dépenses militaires fédérales américaines et une bonne affaire pour le retour potentiel. Bien que nous ne souhaitions peut-être pas étendre la portée des agences existantes pour s’acquitter de cette tâche, nous avons le choix entre des laboratoires gouvernementaux, comme l’Institut national des normes et de la technologie, le Laboratoire national Lawrence Livermore et d’autres laboratoires du ministère de l’Énergie, ainsi que les universités et les organisations à but non lucratif, avec l’expertise et la capacité de l’IA pour superviser cet effort.
Au lieu de publier des systèmes d’IA à moitié terminés pour que le public les teste, nous devons nous assurer qu’ils sont robustes avant leur publication et qu’ils renforcent la démocratie plutôt que de la saper. L’avancée clé qui a rendu les récents modèles de chatbot IA considérablement plus utiles a été les commentaires de personnes réelles. Les entreprises emploient des équipes pour interagir avec les premières versions de leurs logiciels afin de leur apprendre quels résultats sont utiles et lesquels ne le sont pas. Ces utilisateurs payants forment les modèles pour s’aligner sur les intérêts de l’entreprise, avec des applications telles que la recherche sur le Web (intégrant des publicités commerciales) et les logiciels d’assistance à la productivité des entreprises.
Pour construire une IA d’assistance pour la démocratie, nous aurions besoin de capturer les commentaires humains pour des cas d’utilisation démocratiques spécifiques, tels que la modération d’une discussion politique polarisée, l’explication de la nuance d’une proposition législative ou l’articulation de sa perspective dans un débat plus large. Cela nous donne une voie pour aligner les LLM sur nos valeurs démocratiques : en faisant en sorte que les modèles génèrent des réponses aux questions, commettent des erreurs et apprennent des réponses des utilisateurs humains, sans que ces erreurs ne nuisent aux utilisateurs et à l’espace public.
Capturer ce type d’interaction et de rétroaction des utilisateurs dans un environnement politique suspect à la fois de l’IA et de la technologie sera généralement difficile. Il est facile d’imaginer que les mêmes politiciens qui s’insurgent contre le manque de confiance d’entreprises comme Meta s’énervent encore plus à l’idée que le gouvernement joue un rôle dans le développement technologique.
Comme Karl Popper, le grand théoricien de la société ouverte, l’a soutenu, nous ne devrions pas essayer de résoudre des problèmes complexes avec de grands plans orgueilleux. Au lieu de cela, nous devrions appliquer l’IA par le biais d’une ingénierie démocratique fragmentaire, en déterminant soigneusement ce qui fonctionne et ce qui ne fonctionne pas. La meilleure façon d’avancer est de commencer petit, en appliquant ces technologies aux décisions locales avec des groupes de parties prenantes plus restreints et des impacts plus faibles.
La prochaine génération d’expérimentations d’IA devrait avoir lieu dans les laboratoires de la démocratie : les États et les municipalités. Des assemblées publiques en ligne pour discuter des propositions locales de budgétisation participative pourraient être une première étape facile. Les LLM disponibles dans le commerce et à source ouverte pourraient amorcer ce processus et donner une impulsion à l’investissement fédéral dans une option d’IA publique.
Même avec ces approches, la construction et la mise en place d’une option d’IA démocratique seront compliquées et difficiles. Mais les alternatives en haussant les épaules alors qu’une lutte pour la domination commerciale de l’IA sape la politique démocratique seront beaucoup plus désordonnées et beaucoup plus pire.
Future Tense est un partenariat entre Slate, New America et Arizona State University qui examine les technologies émergentes, les politiques publiques et la société.
!function(f,b,e,v,n,t,s)
if(f.fbq)return;n=f.fbq=function()n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments);if(!f._fbq)f._fbq=n;
n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)(window,
document,’script’,’https://connect.facebook.net/en_US/fbevents.js’);