l’IA et notre avenir humain, une triple menace technologique
Lorsque le physicien théoricien Robert Oppenheimer a été témoin du premier essai d’armes nucléaires dans le désert du Nouveau-Mexique en 1945, il a invoqué une phrase des écritures hindoues, la Bhagavad Gita : « Maintenant, je suis devenu la Mort, le destructeur des mondes. »
l’IA et notre avenir humain, une triple menace technologique
Le chef de guerre du Laboratoire de Los Alamos, connu comme le « père de la bombe atomique », n’avait aucun doute sur la signification et l’impact de l’arme qu’il avait contribué à développer. Après le bombardement d’Hiroshima et de Nagasaki quelques semaines plus tard, tout le monde sur la planète a également compris que l’humanité était entrée dans une nouvelle ère terrifiante.
Selon les auteurs de L’ère de l’IA, l’humanité est au bord d’un moment tout aussi important, mais plus diversifié, diffus et imprévisible et moins largement reconnu. La puissance croissante de l’intelligence artificielle, une technologie à usage général qui peut être utilisée pour un éventail étonnant d’utilisations civiles et militaires – de la lecture des rayons X et de la prévision des conditions météorologiques à l’autonomisation des robots tueurs et à la propagation de la désinformation – brouille déjà les conceptions séculaires de la sécurité nationale et la souveraineté de l’État. Tout aussi déconcertant, soutiennent les auteurs, est que l’IA testera également les limites extérieures de la raison et de la compréhension humaines et remettra en question la nature même de l’identité et de l’agence humaines.
Il peut être tentant de rejeter des arguments tels que l’hyperbole folle qui enveloppe une grande partie du débat sur l’IA. Mais les trois auteurs de L’ère de l’IA ont de fortes prétentions à être pris au sérieux. Le diplomate chevronné Henry Kissinger connaît une chose ou deux sur la stratégie. En tant qu’ancien directeur général de Google, Eric Schmidt comprend comment les entreprises technologiques géantes déploient l’IA dans le monde réel.
Et Daniel Huttenlocher, le premier doyen du Schwarzman College of Computing du MIT, connaît bien les dernières recherches de pointe sur l’IA. Ce qui est le plus troublant dans ce livre, c’est que même ces experts reconnus sont bien plus aptes à soulever des questions inconfortables qu’à fournir des réponses réconfortantes.
Pour expliquer l’impact probable de l’IA dans le futur, les auteurs examinent notre passé technologique. Dans les époques précédentes, les technologies stratégiques les plus puissantes avaient tendance à avoir deux des trois caractéristiques, mais aucune n’avait les trois.
Les chemins de fer qui transportaient les troupes sur les lignes de front pendant la Première Guerre mondiale avaient des usages à la fois civils et militaires et pouvaient se propager facilement et largement, mais n’étaient pas menaçants en eux-mêmes. La technologie nucléaire qui a défini la guerre froide pouvait également être utilisée à des fins guerrières et pacifiques et avait une force destructrice massive, mais ne pouvait pas être répandue facilement et largement.
Mais l’IA, selon les auteurs, brise ce paradigme car elle présente les trois caractéristiques. L’IA est clairement à double usage, elle peut être facilement développée et déployée (n’étant essentiellement que des lignes de code informatique) et a un énorme pouvoir destructeur. « Peu d’époques ont été confrontées à un défi stratégique et technologique aussi complexe et avec si peu de consensus sur la nature du défi ou même le vocabulaire nécessaire pour en discuter », écrivent les auteurs.
Ou, comme Elon Musk a résumé l’argument en 2014 dans un tweet concis : « Nous devons être très prudents avec l’IA. Potentiellement plus dangereux que les armes nucléaires.
L’un des inconvénients de L’ère de l’IA c’est qu’il se lit plus comme une série de monologues des auteurs sur leurs sujets de prédilection plutôt que comme un dialogue engageant qui aurait pu vraiment élever le débat. Le chapitre le plus intéressant, sur la sécurité et l’ordre mondial, a probablement été écrit par Kissinger. Il devrait être lu par quiconque essaie de donner un sens à la géopolitique d’aujourd’hui.
L’objectif éternel des stratèges militaires a été de projeter la puissance sur des distances toujours plus grandes avec une force et une vitesse progressivement plus grandes. Mais les grandes puissances de l’époque qui ont développé de telles technologies l’ont fait plus ou moins au même rythme et à la lumière du jour. Bien que les États-Unis aient eu une longueur d’avance sur l’Union soviétique dans le développement de la bombe atomique, d’autres puissances ont rapidement rattrapé leur retard et ont pu plus ou moins compter leurs stocks de missiles.
Mais des technologies militaires plus dynamiques et subreptices, telles que les cyberarmes, se sont récemment multipliées et sont devenues plus destructrices, tandis que les stratégies pour les utiliser à des fins définies sont devenues plus insaisissables. Tout comme les algorithmes de trading mal conçus ont été accusés d’avoir déstabilisé les marchés financiers, les cyberarmes améliorées par l’IA pourraient entraîner un « crash éclair » stratégique. Comme l’écrivent les auteurs : « L’IA a la perspective d’augmenter les capacités conventionnelles, nucléaires et cybernétiques de manière à rendre les relations de sécurité entre rivaux plus difficiles à prévoir et à maintenir et les conflits plus difficiles à limiter.
Bien que Kissinger soit considéré comme l’une des principales autorités américaines sur la Chine et que Schmidt ait présidé le récent rapport de la Commission de sécurité nationale des États-Unis sur l’IA qui mettait en garde contre la puissance technologique croissante de la Chine, le livre ne donne pas autant d’informations sur les ambitions de Pékin que le lecteur pourrait s’y attendre. Mais les auteurs exhortent les États-Unis et la Chine à se parler directement et régulièrement de leurs cyberdoctrines et lignes rouges et à ne pas céder trop d’autorité aux systèmes de prise de décision automatisés. À tout le moins, Washington et Pékin devraient veiller à ce que les décideurs humains restent « au courant » pour maximiser le temps de dialogue et de diplomatie dans les situations extrêmes et travailler ensemble pour empêcher la prolifération dangereuse de l’IA militaire.
Les chapitres restants du livre sont assez intéressants mais n’ouvrent guère de terrain nouveau. Dans Règle des Robots, Martin Ford décrit mieux l’impact économique probable de l’IA. Dans Atlas de l’IA, Kate Crawford est plus originale dans l’exploration du contexte sociétal, politique et environnemental plus large de la technologie.