Avis | Comment l’IA pourrait accidentellement éteindre l’humanité

(Illustration du Washington Post/Images par Getty Images/iStockphoto)

mile P. Torres est philosophe et historien du risque catastrophique mondial.

Les gens sont mauvais pour prédire l’avenir. Où sont nos voitures volantes ? Pourquoi n’y a-t-il pas de robots majordomes ? Et pourquoi ne puis-je pas prendre de vacances sur Mars ?

Mais nous ne nous sommes pas trompés sur des choses que nous pensions aurait se passer; l’humanité a également une longue histoire de nous assurer à tort que certaines réalités désormais incontournables ne le ferait pas. La veille de la conception par Leo Szilard de la réaction nucléaire en chaîne en 1933, le grand physicien Ernest Rutherford a proclamé que quiconque proposait la puissance atomique parlait de l’alcool de contrebande. Même le pionnier de l’industrie informatique, Ken Olsen, en 1977, aurait dit qu’il ne prévoyait pas que les individus aient besoin d’un ordinateur chez eux.

De toute évidence, nous vivons dans un monde nucléaire, et vous avez probablement un ordinateur ou deux à portée de main en ce moment. En fait, ce sont ces ordinateurs et les progrès exponentiels de l’informatique en général qui font maintenant l’objet de certaines des prévisions les plus importantes de la société. L’attente conventionnelle est que la puissance de calcul sans cesse croissante sera une aubaine pour l’humanité. Et si on se trompait encore ? La superintelligence artificielle pourrait-elle plutôt nous causer un grand tort ? Notre extinction ?

Comme l’histoire l’enseigne, ne dites jamais jamais.

Cela semble n’être qu’une question de temps avant que les ordinateurs ne deviennent plus intelligents que les humains. C’est une prédiction sur laquelle nous pouvons être assez confiants car nous la voyions déjà. De nombreux systèmes ont atteint des capacités surhumaines pour des tâches particulières, telles que jouer au Scrabble, aux échecs et au poker, où les gens perdent désormais régulièrement contre le bot à tous les niveaux.

Mais les progrès de l’informatique conduiront à des systèmes de plus en plus général niveaux d’intelligence : algorithmes capables de résoudre des problèmes complexes dans de multiples domaines. Imaginez un algorithme unique qui pourrait battre un grand maître d’échecs mais aussi écrire un roman, composer une mélodie accrocheuse et conduire une voiture dans la circulation urbaine.

Selon une enquête d’experts réalisée en 2014, il y a 50 % de chances que l’intelligence artificielle au niveau humain soit atteinte d’ici 2050 et 90 % de chances d’ici 2075. Une autre étude du Global Catastrophic Risk Institute a trouvé au moins 72 projets dans le monde avec l’express objectif de créer une intelligence artificielle générale le tremplin vers la superintelligence artificielle (ASI), qui serait non seulement aussi performante que les humains dans tous les domaines d’intérêt, mais aussi loin dépasser nos meilleures capacités.

Le succès de l’un de ces projets serait l’événement le plus important de l’histoire de l’humanité. Soudain, notre espèce serait rejointe sur la planète par quelque chose plus intelligent que nous. Les avantages sont faciles à imaginer : un ASI pourrait aider à guérir des maladies telles que le cancer et la maladie d’Alzheimer, ou à assainir l’environnement.

Mais les arguments pour lesquels une ASI pourrait nous détruire sont également solides.

Aucune organisation de recherche ne concevrait sûrement un ASI malveillant de style Terminator déterminé à détruire l’humanité, n’est-ce pas? Malheureusement, ce n’est pas le souci. Si tous étaient anéantis par un ASI, ce sera presque certainement par accident.

Parce que les architectures cognitives des ASI peuvent être fondamentalement différentes des nôtres, elles sont peut-être les plus chose imprévisible dans notre avenir. Considérez ces IA qui battent déjà les humains dans les jeux : en 2018, un algorithme jouant au jeu Atari Q*bert a gagné en exploitant une faille qu’aucun joueur humain n’aurait jamais découverte. Un autre programme est devenu un expert du cache-cache numérique grâce à une stratégie que les chercheurs n’avaient jamais vue venir.

Si nous ne pouvons pas anticiper ce que feront les algorithmes jouant à des jeux pour enfants, comment pouvons-nous être sûrs des actions d’une machine dotée de compétences en résolution de problèmes bien au-dessus de l’humanité ? Et si nous programmons un ASI pour établir la paix mondiale et qu’il pirate les systèmes gouvernementaux pour lancer toutes les armes nucléaires sur la planète en pensant que si aucun humain n’existe, il ne peut plus y avoir de guerre ? Oui, nous pourrions le programmer explicitement pour ne pas le faire ce. Mais qu’en est-il de son plan B ?

Vraiment, il y a un interminable nombre de façons dont un ASI pourrait résoudre des problèmes mondiaux qui ont des conséquences catastrophiques. Pour tout ensemble donné de restrictions sur le comportement des ASI, aussi exhaustifs soient-ils, des théoriciens intelligents utilisant leur intelligence purement humaine peuvent souvent trouver des moyens de faire très mal les choses ; vous pouvez parier qu’un ASI pourrait penser à plus.

Et comme pour arrêter une ASI destructrice, un système suffisamment intelligent devrait rapidement reconnaître qu’une façon de ne jamais atteindre les objectifs qui lui ont été assignés est de cesser d’exister. La logique veut qu’il essaie tout ce qu’il peut pour nous empêcher de le débrancher.

Son humanité peu claire sera toujours préparée pour la superintelligence, mais n’était certainement pas prête maintenant. Avec toute notre instabilité mondiale et notre compréhension encore naissante de la technologie, l’ajout d’ASI reviendrait à allumer une allumette à côté d’une usine de feux d’artifice. La recherche sur l’intelligence artificielle doit ralentir, voire s’arrêter. Et si les chercheurs ne prennent pas cette décision, les gouvernements devraient la prendre pour eux.

Certains de ces chercheurs ont explicitement rejeté les inquiétudes selon lesquelles l’intelligence artificielle avancée pourrait être dangereuse. Et ils ont peut-être raison. Il pourrait s’avérer que toute mise en garde ne fait que parler de clair de lune et que l’ASI est totalement bénigne, voire totalement impossible. Après tout, je ne peux pas prédire l’avenir.

Le problème est : ils ne le peuvent pas non plus.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite