Ce qu’Isaac Asimovs Robbie enseigne sur l’IA et comment les esprits « fonctionnent »
Dans Isaac Asimovs histoire de science-fiction classique Robbie, la famille Weston possède un robot qui sert de nourrice et de compagnon pour leur fille préadolescente précoce, Gloria. Gloria et le robot Robbie sont amis ; leur relation est affectueuse et mutuellement attentionnée. Gloria considère Robbie comme son gardien loyal et dévoué. Cependant, Mme Weston s’inquiète de cette relation contre nature entre le robot et son enfant et s’inquiète de la possibilité que Robbie cause du tort à Gloria (bien qu’il soit explicitement programmé pour ne pas le faire); il est clair qu’elle est jalouse. Après plusieurs tentatives infructueuses pour sevrer Gloria de Robbie, son père, exaspéré et épuisé par les protestations des mères, propose une visite d’une usine de robots là-bas, Gloria pourra voir que Robbie n’est qu’un robot fabriqué, pas une personne, et tomber par amour pour ça. Gloria doit venir apprendre comment Robbie travaille, comment il a été fait ; alors elle comprendra que Robbie n’est pas celui qu’elle pense qu’il est. Ce plan ne fonctionne pas. Gloria n’apprend pas comment Robbie fonctionne vraiment, et dans un retournement de situation, Gloria et Robbie deviennent encore meilleurs amis. Mme Weston, la trouble-fête, est encore une fois déjouée. Gloria ne sait toujours pas qui est vraiment Robbie.
Quelle est la morale de ce conte ? Plus important encore, ceux qui interagissent et socialisent avec des agents artificiels, sans savoir (ou se soucier) de leur véritable fonctionnement interne, développeront des relations distinctives avec eux et leur attribueront les qualités mentales appropriées à leurs relations. Gloria joue avec Robbie et l’aime comme compagnon ; il prend soin d’elle en retour. Il y a une danse interprétative dans laquelle Gloria s’engage avec Robbie, et les opérations internes et la constitution de Robbie n’ont aucun rapport avec elle. Lorsque l’opportunité d’apprendre de tels détails se présente, une preuve supplémentaire de la fonctionnalité de Robbies (après avoir sauvé Gloria d’un accident) distrait et empêche Gloria d’apprendre davantage.
Philosophiquement parlant, Robbie nous enseigne qu’en attribuant un esprit à un autre être, nous ne faisons pas une déclaration sur le type de la chose qu’il est, mais plutôt, révélant à quel point nous comprenons comment il travaux. Par exemple, Gloria pense que Robbie est intelligent, mais ses parents pensent qu’ils peuvent réduire son comportement apparemment intelligent à des opérations de machine de niveau inférieur. Pour voir cela plus largement, notez le cas inverse où nous nous attribuons des qualités mentales que nous ne voulons pas attribuer à des programmes ou à des robots. Ces qualités, comme l’intelligence, l’intuition, la perspicacité, la créativité et la compréhension, ont ceci en commun : nous ne savons pas ce qu’elles sont. Malgré les affirmations extravagantes souvent véhiculées par les praticiens des neurosciences et de la psychologie empirique, et par divers scientifiques cognitifs, ces compliments autodirigés restent indéfinissables. Toute tentative de caractériser l’un emploie l’autre (la véritable intelligence nécessite de la perspicacité et de la créativité ou la véritable compréhension nécessite de la perspicacité et de l’intuition) et s’engage, voire nécessite, de longues agitations de la main.
Mais même si nous ne sommes pas tout à fait sûrs de ce que sont ces qualités ou de ce qu’elles fondent, quelle que soit la qualité mentale, le proverbial profane instruit est sûr que les humains l’ont et que les machines comme les robots ne l’ont pas, même si les machines agissent comme nous, produisant ces mêmes produits que les humains font, et reproduisant parfois des exploits humains dont on dit qu’ils nécessitent de l’intelligence, de l’ingéniosité ou quoi que ce soit d’autre. Pourquoi? Parce que, comme les parents de Gloria, nous savoir (grâce au fait d’être informé par les créateurs de systèmes dans les médias populaires) que tout ce qu’ils font est [table lookup / prompt completion / exhaustive search of solution spaces]. Pendant ce temps, les attributs mentaux que nous nous appliquons sont si vaguement définis, et notre ignorance de nos opérations mentales si profonde (actuellement), que nous ne pouvons pas dire que l’intuition humaine (perspicacité ou créativité) est juste [fill in the blanks with banal physical activity].
Les débats actuels sur l’intelligence artificielle se déroulent donc comme ils le font parce que chaque fois que nous sommes confrontés à une intelligence artificielle, dont nous (pensons) comprendre le fonctionnement, il est facile de répondre rapidement : tout cet agent artificiel ne fait que X. description démystifie ses opérations, et nous sommes donc sûrs qu’il n’est pas intelligent (ou créatif ou perspicace). En d’autres termes, les êtres ou les choses dont nous comprenons les opérations internes de niveau inférieur et que nous pouvons indiquer et éclairer, fonctionnent simplement selon des schémas connus d’opérations physiques banales. Ces entités apparemment intelligentes dont nous effectuons les opérations internes pas comprendre sont capables de perspicacité, de compréhension et de créativité. (La ressemblance avec les humains aide aussi ; nous refusons plus facilement l’intelligence aux animaux qui ne nous ressemblent pas.)
Mais que se passerait-il si, comme Gloria, nous n’avions pas une telle connaissance de ce que fait un système, un être, un objet ou un extraterrestre lorsqu’il produit ses réponses apparemment intelligentes ? Quelles qualités lui attribuerions-nous pour donner un sens à ce qu’il fait ? Ce niveau d’incompréhensibilité approche peut-être rapidement. Témoin les réactions perplexes de certains développeurs de ChatGPT face à son comportement soi-disant émergent, où personne ne semble savoir exactement comment ChatGPT a produit les réponses qu’il a faites. Nous pourrions, bien sûr, insister sur le fait que tout ce qu’il fait est (en quelque sorte) un achèvement rapide. Mais vraiment, on pourrait aussi dire à propos des humains, ce sont juste des neurones qui s’activent. Mais ni ChatGPT ni les humains n’auraient de sens pour nous de cette façon.
Les preuves suggèrent que si nous devions rencontrer une entité suffisamment compliquée et intéressante qui semble intelligente, mais nous ne savons pas comment cela fonctionne et ne pouvons pas prononcer notre ligne dédaigneuse habituelle, Tout X fait est y, nous commencerions à utiliser le langage de la psychologie populaire pour gouverner nos interactions avec lui, pour comprendre pourquoi il fait ce qu’il fait et, surtout, pour essayer de prédire son comportement. Par analogie historique, quand nous ne savions pas ce qui faisait bouger l’océan et le soleil, nous leur accordions des états mentaux. (La mer en colère croit que les falaises sont ses ennemis mortels. Ou Le soleil veut se coucher rapidement.) Une fois que nous avons su comment elles fonctionnaient, grâce à notre connaissance croissante des sciences physiques, nous les avons rétrogradées à des objets purement physiques. (Une décision aux conséquences environnementales désastreuses !) De même, une fois que nous avons perdu notre emprise sur les composants internes des systèmes d’intelligence artificielle, ou que nous avons grandi avec eux, sans savoir comment ils fonctionnent, nous pourrions également leur attribuer des esprits. C’est une question de décision pragmatique, pas de découverte. Car cela pourrait être la meilleure façon de comprendre pourquoi et ce qu’ils font.