Il n’y a pas d’IA
En tant qu’informaticien, je n’aime pas le terme IA. En fait, je pense que c’est trompeur, voire un peu dangereux. Tout le monde utilise déjà le terme, et il peut sembler un peu tard dans la journée d’en discuter. Mais nous étions au début d’une nouvelle ère technologique et le moyen le plus simple de mal gérer une technologie est de la mal comprendre.
Le terme intelligence artificielle a une longue histoire, il a été inventé dans les années 1950, au tout début des ordinateurs. Plus récemment, les informaticiens ont grandi sur des films comme The Terminator et The Matrix, et sur des personnages comme Commander Data, de Star Trek : The Next Generation. Ces pierres de touche culturelles sont devenues une mythologie presque religieuse dans la culture technologique. Il est naturel que les informaticiens aspirent à créer l’IA et réalisent un rêve de longue date.
Ce qui est frappant, cependant, c’est que de nombreuses personnes qui poursuivent le rêve de l’IA craignent également que cela ne signifie l’apocalypse pour l’humanité. Il est largement affirmé, même par des scientifiques au centre même des efforts d’aujourd’hui, que ce que font les chercheurs en IA pourrait entraîner l’anéantissement de notre espèce, ou du moins de grands dommages à l’humanité, et bientôt. Dans un récent sondage, la moitié des scientifiques de l’IA ont convenu qu’il y avait au moins dix pour cent de chances que la race humaine soit détruite par l’IA. Même mon collègue et ami Sam Altman, qui dirige OpenAI, a fait des commentaires similaires. Entrez dans n’importe quel café de la Silicon Valley et vous entendrez le même débat se dérouler : une personne dit que le nouveau code n’est qu’un code et que les gens sont responsables, mais une autre soutient que toute personne ayant cette opinion ne comprend tout simplement pas à quel point la nouvelle technologie est profonde. . Les arguments ne sont pas entièrement rationnels : lorsque je demande à mes amis scientifiques les plus craintifs d’expliquer comment une apocalypse de l’IA pourrait se produire, ils se saisissent souvent de la paralysie qui dépasse quelqu’un qui essaie de concevoir l’infini. Ils disent que des choses comme l’accélération du progrès nous dépasseront et que nous ne pourrons pas concevoir ce qui se passe.
Je ne suis pas d’accord avec cette façon de parler. Beaucoup de mes amis et collègues sont profondément impressionnés par leurs expériences avec les derniers grands modèles, comme le GPT-4, et tiennent pratiquement des veillées pour attendre l’apparition d’une intelligence plus profonde. Ma position n’est pas qu’ils se trompent, mais que nous ne pouvons pas en être sûrs ; nous nous réservons la possibilité de classer les logiciels de différentes manières.
La position la plus pragmatique consiste à considérer l’IA comme un outil et non comme une créature. Mon attitude n’élimine pas la possibilité d’un péril : peu importe comment nous y pensons, nous pouvons toujours mal concevoir et exploiter notre nouvelle technologie, d’une manière qui peut nous blesser ou même conduire à notre extinction. Mythologiser la technologie ne fait que rendre plus probable qu’elle échoue à bien la faire fonctionner et ce type de pensée limite notre imagination, la liant aux rêves d’hier. Nous pouvons mieux travailler en supposant que l’IA n’existe pas. Plus tôt nous comprendrons cela, plus tôt nous commencerons à gérer intelligemment notre nouvelle technologie.
Si la nouvelle technologie n’est pas une véritable intelligence artificielle, alors qu’est-ce que c’est ? À mon avis, la manière la plus précise de comprendre ce que nous construisons aujourd’hui est une forme innovante de collaboration sociale.
Un programme comme OpenAIs GPT-4, qui peut écrire des phrases sur commande, est quelque chose comme une version de Wikipedia qui comprend beaucoup plus de données, mélangées à l’aide de statistiques. Les programmes qui créent des images sur commande sont quelque chose comme une version de la recherche d’images en ligne, mais avec un système pour combiner les images. Dans les deux cas, ce sont ses hommes qui ont écrit le texte et fourni les images. Les nouveaux programmes mélangent le travail effectué par des esprits humains. Ce qui est innovant, c’est que le processus de mashup est devenu guidé et contraint, de sorte que les résultats sont utilisables et souvent frappants. C’est une réalisation importante qui mérite d’être célébrée, mais elle peut être considérée comme éclairant des concordances auparavant cachées entre les créations humaines, plutôt que comme l’invention d’un nouvel esprit.
Autant que je sache, mon point de vue flatte la technologie. Après tout, qu’est-ce que la civilisation sinon la collaboration sociale ? Considérer l’IA comme un moyen de travailler ensemble, plutôt que comme une technologie permettant de créer des êtres indépendants et intelligents, peut la rendre moins mystérieuse comme HAL 9000 ou Commander Data. Mais c’est bien, car le mystère ne fait que rendre la mauvaise gestion plus probable.
Il est facile d’attribuer de l’intelligence aux nouveaux systèmes ; ils ont une flexibilité et une imprévisibilité que nous n’associons pas habituellement à la technologie informatique. Mais cette flexibilité découle de mathématiques simples. Un grand modèle de langage comme GPT-4 contient un enregistrement cumulatif de la façon dont des mots particuliers coïncident dans les vastes quantités de texte que le programme a traitées. Cette tabulation gargantuesque amène le système à se rapprocher intrinsèquement de nombreux modèles de grammaire, ainsi que d’aspects de ce que l’on pourrait appeler le style de l’auteur. Lorsque vous entrez une requête composée de certains mots dans un certain ordre, votre entrée est corrélée avec ce qui se trouve dans le modèle ; les résultats peuvent sortir un peu différemment à chaque fois, en raison de la complexité de corréler des milliards d’entrées.
La nature non répétitive de ce processus peut le rendre vivant. Et il y a un sens dans lequel cela peut rendre les nouveaux systèmes plus centrés sur l’humain. Lorsque vous synthétisez une nouvelle image avec un outil d’intelligence artificielle, vous pouvez obtenir un tas d’options similaires et devoir ensuite choisir parmi elles ; Si vous êtes un étudiant qui utilise un LLM pour tricher sur un devoir de dissertation, vous pouvez lire les options générées par le modèle et en sélectionner une. Un petit choix humain est exigé par une technologie qui ne se répète pas.
De nombreuses utilisations de l’IA que j’aime reposent sur les avantages que nous obtenons lorsque les ordinateurs deviennent moins rigides. Les éléments numériques tels que nous les connaissons ont une qualité fragile qui oblige les gens à s’y conformer plutôt qu’à les évaluer. Nous avons tous enduré l’agonie de regarder une pauvre âme dans un cabinet médical lutter pour faire la chose attendue sur un écran de réception. Le visage se contorsionne ; l’humanité est minée. La nécessité de se conformer aux conceptions numériques a créé une attente ambiante de soumission humaine. Une tournure positive de l’IA est qu’elle pourrait signifier la fin de cette torture, si nous l’utilisons bien. Nous pouvons maintenant imaginer un site Web qui se reformule à la volée pour quelqu’un qui est daltonien, par exemple, ou un site qui s’adapte aux capacités cognitives et aux styles particuliers de quelqu’un. Un humaniste comme moi veut que les gens aient plus de contrôle, plutôt que d’être trop influencés ou guidés par la technologie. La flexibilité peut nous redonner un peu d’agence.
Pourtant, malgré ces avantages possibles, il est plus que raisonnable de s’inquiéter que la nouvelle technologie nous pousse d’une manière que nous n’aimons pas ou que nous ne comprenons pas. Récemment, certains de mes amis ont fait circuler une pétition demandant une pause sur le développement le plus ambitieux de l’IA. L’idée était que nous travaillions sur la politique pendant la pause. La pétition a été signée par certains membres de notre communauté mais pas par d’autres. J’ai trouvé la notion trop floue. Quel niveau de progrès signifierait que la pause pourrait se terminer ? Chaque semaine, je reçois de nouvelles déclarations de mission, mais toujours vagues, d’organisations cherchant à initier des processus pour définir une politique d’IA.
Ces efforts sont bien intentionnés, mais ils me semblent sans espoir. Pendant des années, j’ai travaillé sur les politiques de confidentialité de l’UE et j’ai réalisé que nous ne savions pas ce qu’est la confidentialité. C’est un terme que nous utilisons tous les jours, et il peut avoir un sens dans le contexte, mais nous ne pouvons pas le définir assez bien pour généraliser. La définition la plus proche de la vie privée est probablement le droit d’être laissé seul, mais cela semble étrange à une époque où nous dépendons constamment des services numériques. Dans le contexte de l’IA, le droit de ne pas être manipulé par le calcul semble presque correct, mais ne dit pas tout à fait tout ce que nous aimerions.
Les conversations sur la politique en matière d’IA sont dominées par des termes tels que l’alignement (ce que veut une IA est-il aligné sur ce que veulent les humains ?), la sécurité (pouvons-nous prévoir des garde-corps qui déjoueront une mauvaise IA ?) et l’équité (pouvons-nous prévenir toutes les façons dont un programme pourrait traiter certaines personnes avec défaveur ?). La communauté a certainement accompli beaucoup de bien en poursuivant ces idées, mais cela n’a pas apaisé nos craintes. Nous finissons par motiver les gens à tenter de contourner les vagues protections que nous mettons en place. Même si les protections aident, le tout devient un jeu essayant de déjouer un génie sournois. Le résultat est que la communauté de recherche sur l’IA communique l’avertissement que leurs créations pourraient encore bientôt tuer toute l’humanité, tout en proposant des processus délibératifs toujours plus urgents, mais turgescents.
Récemment, j’ai tenté une expérience informelle, appelant des collègues et leur demandant s’il y avait quelque chose de spécifique sur lequel nous semblions tous être d’accord. J’ai trouvé qu’il y a une base d’accord. Nous semblons tous d’accord sur le fait que les images, vidéos, etc. fausses mais semblant réelles devraient être étiquetées comme telles par les programmes qui les créent. Les communications provenant de personnes artificielles et les interactions automatisées conçues pour manipuler la pensée ou les actions d’un être humain doivent également être étiquetées. Nous convenons également que ces labels doivent être assortis d’actions pouvant être entreprises. Les gens devraient être capables de comprendre ce qu’ils voient et devraient avoir des choix raisonnables en retour.