Pourquoi la démocratie appartient à l’intelligence artificielle
Au cours de la dernière année, les mondes de l’art et de la littérature ont connu des débuts nouveaux et plutôt peu orthodoxes. Un écrivain prometteur a produit de la poésie, de la fiction et des essais à une vitesse sans précédent, et plusieurs nouveaux artistes visuels ont généré des images et des portraits d’un autre monde. Ces artistes ne sont pas des personnes mais des systèmes d’intelligence artificielle qui semblent, à première vue du moins, être réellement intelligents.
Les apparences peuvent cependant être trompeuses. Derrière le financement par capital-risque, les keynotes élégants et les gratte-ciel de San Francisco qui génèrent des systèmes comme ChatGPT, il y a un type de raisonnement plus simple : la prédiction. Essayer taper quelque chose dedans. Ce que vous voyez n’est pas un système qui comprend, intériorise et traite votre demande avant de produire une réponse. Il est généré par un réseau neuronal de couches d’algorithmes qui ont appris à prédire des résultats utiles à partir de tout le texte sur le Web. Cela ressemble à de la compréhension, comme regarder un auteur original en action, mais ce n’est pas le cas. Sa prédiction, un exercice de mimétisme. Même certains des systèmes d’IA les plus complexes sont en fait de puissantes formes d’apprentissage automatique dans lesquelles les algorithmes apprennent à prédire des résultats particuliers à partir de modèles et de structures dans d’énormes ensembles de données.
C’est important parce que la plupart des dommages réels que ces systèmes peuvent causer, mais aussi les opportunités qu’ils peuvent offrir n’ont rien à voir avec la conquête du monde par des robots ou des systèmes d’IA auto-générés. Ils ont à voir avec quoi, comment, quand et pourquoi nous devrions utiliser de puissants outils prédictifs dans les systèmes décisionnels de nos organisations politiques, sociales et économiques. Comment, le cas échéant, devrions-nous utiliser la prédiction pour décider qui obtient un prêt ou une hypothèque, dans quels quartiers les policiers sont envoyés, quelles allégations de maltraitance et de négligence d’enfants enquêter, ou quels messages supprimer ou résultats à afficher sur Facebook ? Nous ne devrions pas nous attendre à ce que les réponses soient les mêmes pour différentes questions. Les questions morales et politiques sur l’utilisation de la prédiction basée sur les données dans le maintien de l’ordre sont souvent extrêmement différentes des questions sur son utilisation dans l’attribution des crédits, et toutes deux sont encore différentes de son utilisation pour façonner et modérer la sphère publique. Cela signifie que les solutions politiques que nous développons pour réglementer les organisations qui utilisent les données pour prendre des décisions, qu’il s’agisse de modèles linéaires simples, d’apprentissage automatique ou même peut-être d’IA, devraient être très différentes dans les entreprises policières, financières et de médias sociaux.
Étant donné que les défis politiques que présentent les outils prédictifs dépendent énormément de ce que ces outils sont utilisés pour faire, nous avons besoin d’une idée sous-jacente qui puisse animer les solutions réglementaires que nous développons dans tous les domaines. Cette idée devrait être l’épanouissement de la démocratie. De cette idée, nous pouvons tirer des principes comme la nécessité d’établir et de protéger l’égalité politique entre les citoyens, d’avoir une sphère publique saine et de veiller à ce que l’infrastructure publique soit façonnée et guidée par des structures démocratiques qui peuvent nous aider à construire une vision de la gouvernance de l’IA , l’apprentissage automatique et les algorithmes.
La première étape consiste à identifier les points d’action humaine, les choix que font les êtres humains réels lorsqu’ils construisent des systèmes basés sur les données. Cela nécessite de déballer la façon dont les informaticiens et les ingénieurs définissent les variables cibles pour prédire, construire et étiqueter les ensembles de données et développer des algorithmes et des modèles de formation. Ce truc peut sembler beaucoup plus complexe qu’il ne l’est, il vaut donc la peine de passer un peu de temps à s’y habituer. Les choix quotidiens faits par les informaticiens au sein du gouvernement, des entreprises et des organisations à but non lucratif impliquent des valeurs morales et des choix politiques. Lorsque, par exemple, les informaticiens et les décideurs politiques ont utilisé l’apprentissage automatique pour répondre plus efficacement aux plaintes de maltraitance d’enfants domestiques, ils se sont retrouvés par inadvertance à s’appuyer sur des données qui reflétaient des décennies de maintien de l’ordre préjudiciable. Il n’y a pas de manière neutre de construire un outil prédictif. De plus, mes recherches déballent le caractère politique des choix impliqués dans la construction d’outils prédictifs pour montrer que, le plus souvent, nous nous retrouvons confrontés à de nouvelles versions d’anciens problèmes profondément enracinés.
Cela répond peut-être au défi le plus ancien de la démocratie : assurer une véritable égalité politique entre les citoyens. Lorsque les commissions des libérations conditionnelles aux États-Unis ont commencé à utiliser des données pour prédire le risque de récidive, elles se sont heurtées à un siècle de racisme capturé dans les données. Les antécédents de préjugés dans le système de justice pénale américain sont enregistrés dans les données utilisées pour former les algorithmes d’apprentissage automatique, et ces algorithmes peuvent ensuite reproduire et amplifier ces schémas d’injustice. Ce qui fait des outils prédictifs un objet intéressant d’enquête morale et politique et, en fin de compte, de politique publique, c’est que vous ont pour décider quelle attitude adopter face à cette injustice historique lorsque vous construisez ces outils. Si vous essayez d’adopter une position neutre, de construire simplement l’outil le plus précis, l’effet sera de reproduire et d’enraciner les schémas sous-jacents de l’injustice. C’est ce que fait la prédiction : elle reproduit les schémas du passé, et lorsque ces prédictions sont utilisées pour façonner l’avenir, l’avenir est façonné à l’image du passé.
Mes recherches explorent un autre défi auquel les démocraties sont confrontées depuis l’Athènes antique et la République romaine : le maintien d’une sphère publique saine. Lorsque Facebook et Google utilisent des systèmes d’apprentissage automatique pour prédire quel contenu engagera le plus les utilisateurs, puis classent ce contenu du plus au moins susceptible d’engager, ils créent une sphère publique structurée autour de l’engagement. Et encore, n’importe quel La manière d’utiliser la prédiction pour classer et ordonner les informations et les idées qui circulent dans la sphère publique implique un ensemble de principes moraux et politiques sur ce que la sphère publique devrait ressembler à une démocratie. Lorsque nous posons des questions sur les objectifs de ciblage de contenu appropriés pour les sites de médias sociaux, nous faisons émerger d’anciens débats de philosophie morale sur la vérité et l’accès à l’information sur la place de la ville. Cela signifie que dans la politique et la réglementation, nous devons affronter des questions sous-jacentes sur ce à quoi nous voulons que notre sphère publique ressemble pour soutenir une démocratie saine, questions que nous prétendons souvent pouvoir ignorer ou déléguer à des régulateurs superficiellement technocratiques.
En fin de compte, l’utilisation généralisée de la prédiction dans notre monde peut nous obliger à revenir à la démocratie et à comprendre que tout est politique jusqu’au bout. Nous ne pouvons construire des structures de gouvernance et de réglementation pour l’IA, l’apprentissage automatique et les algorithmes qu’en nous débattant avec des questions sur le caractère de notre monde partagé et nos relations les uns avec les autres en tant que cohabitants d’espaces publics physiques et numériques. Et c’est en fin de compte à cela que sert la démocratie : fournir une structure, un ensemble partagé de processus et d’institutions, pour nous donner les moyens de répondre à ces questions en tant que société au fil du temps. Nous devrions être reconnaissants de vivre dans un.
Josh Simonsest chercheur en théorie politique à l’Université de Harvard. Il a travaillé comme chercheur invité en intelligence artificielle chez Facebook et comme conseiller politique pour le Parti travailliste au Parlement britannique.Eli Frankel est étudiant au Harvard College. Il a travaillé comme chercheur au Centre d’Ethique Edmond et Lily Safra.