Comment savoir si votre IA est consciente
Avez-vous déjà parlé à quelqu’un qui est conscient ? Comment s’est déroulée cette conversation ? Ont-ils fait un vague geste en l’air avec les deux mains ? Ont-ils fait référence au Tao Te Ching ou à Jean-Paul Sartre ? Ont-ils dit qu’en réalité, il n’y a rien dont les scientifiques peuvent être sûrs et que la réalité est aussi réelle que nous le prétendons ?
Le flou de la conscience, son imprécision, ont fait de son étude un anathème dans les sciences naturelles. Au moins jusqu’à récemment, le projet était largement laissé aux philosophes, qui n’étaient souvent que légèrement meilleurs que les autres pour clarifier leur objet d’étude. Hod Lipson, roboticien à l’Université de Columbia, a déclaré que certaines personnes dans son domaine appelaient la conscience le mot C. Grace Lindsay, neuroscientifique à l’Université de New York, a déclaré : « Il y avait cette idée selon laquelle on ne pouvait pas étudier la conscience avant d’être titulaire.
Néanmoins, il y a quelques semaines, un groupe de philosophes, de neuroscientifiques et d’informaticiens, parmi lesquels le Dr Lindsay, a proposé une rubrique permettant de déterminer si un système d’IA comme ChatGPT pouvait être considéré comme conscient. Le rapport, qui examine ce que le Dr Lindsay appelle la toute nouvelle science de la conscience, rassemble des éléments d’une demi-douzaine de théories empiriques naissantes et propose une liste de qualités mesurables qui pourraient suggérer la présence d’une certaine présence dans une machine.
Par exemple, la théorie du traitement récurrent se concentre sur les différences entre la perception consciente (par exemple, étudier activement une pomme devant vous) et la perception inconsciente (comme la sensation d’une pomme volant vers votre visage). Les neuroscientifiques ont soutenu que nous percevons inconsciemment des choses lorsque des signaux électriques sont transmis des nerfs de nos yeux au cortex visuel primaire, puis aux parties plus profondes du cerveau, comme un bâton passé d’un groupe de nerfs à un autre. Ces perceptions semblent devenir conscientes lorsque le relais revient, des parties les plus profondes du cerveau au cortex visuel primaire, créant ainsi une boucle d’activité.
Une autre théorie décrit des sections spécialisées du cerveau qui sont utilisées pour des tâches particulières. La partie de votre cerveau qui peut équilibrer votre corps le plus lourd sur un bâton sauteur est différente de la partie de votre cerveau qui peut s’adapter à un vaste paysage. Nous avons pu rassembler toutes ces informations (on peut rebondir sur un pogo stick tout en appréciant une belle vue), mais seulement dans une certaine mesure (c’est difficile). Les neuroscientifiques ont donc postulé l’existence d’un espace de travail global qui permet de contrôler et de coordonner ce à quoi nous prêtons attention, ce dont nous nous souvenons, voire même ce que nous percevons. Notre conscience peut naître de cet espace de travail intégré et changeant.
Mais cela pourrait aussi découler de la capacité d’être conscient de sa propre conscience, de créer des modèles virtuels du monde, de prédire des expériences futures et de localiser son corps dans l’espace. Le rapport soutient que n’importe laquelle de ces caractéristiques pourrait potentiellement constituer un élément essentiel de ce que signifie être conscient. Et si nous étions capables de discerner ces caractéristiques chez une machine, nous pourrions alors considérer la machine comme consciente.
L’une des difficultés de cette approche réside dans le fait que les systèmes d’IA les plus avancés sont des réseaux neuronaux profonds qui apprennent à faire les choses par eux-mêmes, d’une manière qui n’est pas toujours interprétable par les humains. Nous pouvons tirer certains types d’informations de leur structure interne, mais seulement de manière limitée, du moins pour le moment. C’est le problème de la boîte noire de l’IA. Même si nous disposions d’une rubrique complète et exacte de la conscience, il serait difficile de l’appliquer aux machines que nous utilisons quotidiennement.
Et les auteurs du récent rapport s’empressent de noter que leur liste n’est pas définitive de ce qui rend conscient. Ils s’appuient sur une conception du fonctionnalisme informatique, selon laquelle la conscience est réduite à des informations échangées au sein d’un système, comme dans un flipper. En principe, selon ce point de vue, un flipper pourrait être conscient s’il était rendu beaucoup plus complexe. (Cela pourrait signifier que ce n’est plus un flipper ; traversons ce pont si nous y arrivons.) Mais d’autres ont proposé des théories qui prennent nos caractéristiques biologiques ou physiques, nos contextes sociaux ou culturels, comme des éléments essentiels de la conscience. Il est difficile de voir comment ces choses pourraient être codées dans une machine.
Et même pour les chercheurs largement d’accord avec le fonctionnalisme informatique, aucune théorie existante ne semble suffisante pour la conscience.
Pour que l’une des conclusions du rapport soit significative, les théories doivent être correctes, a déclaré le Dr Lindsay. Ce qui n’est pas le cas. C’est peut-être le mieux que nous puissions faire pour le moment, a-t-elle ajouté.
Après tout, semble-t-il que l’une de ces caractéristiques, ou toutes ces caractéristiques combinées, constitue ce que William James a décrit comme la chaleur de l’expérience consciente ? Ou, pour reprendre les mots de Thomas Nagels, qu’est-ce que ça fait d’être vous ? Il existe un écart entre la manière dont nous pouvons mesurer l’expérience subjective avec la science et l’expérience subjective elle-même. C’est ce que David Chalmers a qualifié de difficile problème de la conscience. Même si un système d’IA dispose d’un traitement récurrent, d’un espace de travail global et d’une idée de son emplacement physique, que se passe-t-il s’il lui manque toujours ce qui le rend ? j’ai l’impression quelque chose?
Lorsque j’ai évoqué ce vide avec Robert Long, philosophe au Center for AI Safety qui a dirigé les travaux sur le rapport, il a déclaré : « Ce sentiment est une sorte de chose qui se produit chaque fois que vous essayez d’expliquer scientifiquement, ou de réduire à des processus physiques, un concept de haut niveau.
Les enjeux sont élevés, a-t-il ajouté ; les progrès de l’IA et de l’apprentissage automatique arrivent plus vite que notre capacité à expliquer ce qui se passe. En 2022, Blake Lemoine, ingénieur chez Google, a fait valoir que le chatbot LaMDA de l’entreprise était conscient (bien que la plupart des experts ne soient pas d’accord) ; la poursuite de l’intégration de l’IA générative dans nos vies signifie que le sujet pourrait devenir plus controversé. Le Dr Long soutient que nous devons commencer à faire des affirmations sur ce qui pourrait être conscient et déplore la façon vague et sensationnaliste dont nous avons procédé, en confondant souvent l’expérience subjective avec l’intelligence ou la rationalité générale. C’est un problème auquel nous sommes confrontés actuellement et au cours des prochaines années, a-t-il déclaré.
Comme le dit Megan Peters, neuroscientifique à l’Université de Californie à Irvine et auteur du rapport : « Qu’il y ait quelqu’un là-dedans ou non fait une grande différence dans la façon dont nous le traitons.
Nous effectuons déjà ce type de recherche avec des animaux, ce qui nécessite une étude minutieuse pour pouvoir prétendre que d’autres espèces ont des expériences similaires aux nôtres, voire compréhensibles pour nous. Cela peut ressembler à une activité amusante à la maison, comme tirer des flèches empiriques depuis des plates-formes mobiles vers des cibles qui changent de forme, avec des arcs qui se révèlent parfois être des spaghettis. Mais parfois, nous avons un succès. Comme l’écrit Peter Godfrey-Smith dans son livre Metazoa, les céphalopodes ont probablement un type d’expérience subjective robuste mais catégoriquement différent de celui des humains. Les poulpes ont environ 40 millions de neurones dans chaque bras. Comment ça se passe ?
Nous nous appuyons sur une série d’observations, d’inférences et d’expériences organisées et non pour résoudre ce problème d’autres esprits. Nous parlons, touchons, jouons, émettons des hypothèses, produisons, contrôlons, radiographions et disséquons, mais, en fin de compte, nous ne savons toujours pas ce qui nous rend conscient. Nous savons simplement que nous le sommes.