Les démocraties doivent utiliser l’IA pour défendre les sociétés ouvertes

Le monde aurait été un endroit bien plus sombre si l’Allemagne nazie avait battu les États-Unis pour construire la première bombe atomique au monde. Heureusement, la haine autodestructrice du régime d’Adolf Hitler a saboté ses propres efforts. Une loi de 1933 révoquant les fonctionnaires d’origine non aryenne a privé un quart des physiciens allemands de leurs postes universitaires. Comme l’a noté l’historien Richard Rhodes, 11 de ces 1 600 universitaires avaient déjà gagné, ou allaient gagner, le prix Nobel. Les réfugiés scientifiques de l’Europe nazie ont ensuite joué un rôle central dans le projet de bombe atomique de Manhattan aux États-Unis.

L’introspection angoissante des scientifiques sur la construction d’armes nucléaires résonne fortement aujourd’hui alors que les chercheurs développent des systèmes d’intelligence artificielle qui sont de plus en plus adoptés par l’armée. Bien qu’excités par les utilisations pacifiques de l’IA, les chercheurs savent qu’il s’agit d’une technologie à usage général à double usage qui peut avoir des applications hautement destructrices. La coalition Stop Killer Robots, qui compte plus de 180 organisations non gouvernementales membres de 66 pays, fait campagne pour interdire les soi-disant systèmes d’armes autonomes meurtriers, alimentés par l’IA.

La guerre en Ukraine a accru l’urgence du débat. Plus tôt ce mois-ci, la Russie a annoncé qu’elle avait créé un département spécial pour développer des armes compatibles avec l’IA. Il a ajouté que son expérience en Ukraine contribuerait à rendre ses armes plus efficaces et plus intelligentes. Les forces russes ont déjà déployé le robot de déminage autonome Uran-6 ainsi que le drone suicide sans pilote KUB-BLA, qui, selon son fabricant, utilise l’IA pour identifier les cibles (bien que ces affirmations soient contestées par les experts).

Le président russe Vladimir Poutine a parlé des opportunités colossales de l’IA. Celui qui devient le leader dans ce domaine deviendra le maître du monde, a-t-il dit. Cependant, les efforts du Kremlins pour développer des armes compatibles avec l’IA seront sûrement entravés par l’exode récent de 300 000 Russes, dont beaucoup du secteur technologique, et les mauvaises performances de ses forces conventionnelles.

L’initiative russe fait suite à l’annonce par le Pentagone l’année dernière qu’elle intensifiait ses efforts pour atteindre la supériorité de l’IA. Le département américain de la Défense s’efforçait de créer un avantage militaire concurrentiel en adoptant et en tirant parti de l’IA, a déclaré Kathleen Hicks, secrétaire adjointe à la Défense. La Chine a également développé l’IA à des fins économiques et militaires dans le but clair de dépasser les États-Unis, dans ce qu’on a appelé la course aux armements de l’IA.

Alors qu’une grande partie du débat sur l’utilisation des armes nucléaires a été relativement claire et confinée pendant des décennies, aussi terrifiante soit-elle, la discussion sur l’IA est beaucoup plus confuse et kaléidoscopique. À ce jour, seuls neuf États-nations ont développé des armes nucléaires. Seules deux bombes atomiques ont été utilisées dans la guerre moderne, à Hiroshima et à Nagasaki en 1945. Leur effroyable pouvoir destructeur en a fait des armes de dernier recours.

L’IA, en revanche, est moins visible, plus diffuse et plus imprévisible en raison de son seuil d’utilisation plus bas, comme l’a écrit le stratège vétéran Henry Kissinger. Il est peut-être préférable de le considérer comme un multiplicateur de force pouvant être utilisé pour améliorer les capacités des drones, des cyberarmes, des batteries antiaériennes ou des troupes de combat. Certains stratèges craignent que les démocraties occidentales soient désavantagées face aux régimes autoritaires en raison de contraintes éthiques accrues. En 2018, plus de 3 000 employés de Google ont signé une lettre disant que l’entreprise ne devrait pas faire la guerre et appelant (avec succès) à son retrait du Pentagons Project Maven, conçu pour appliquer l’IA sur le champ de bataille.

Le Pentagone souligne désormais l’importance de développer des systèmes d’IA responsables, régis par des valeurs, des contrôles et des lois démocratiques. La guerre en Ukraine peut également influencer l’opinion publique, en particulier en Europe. Les jeunes se soucient du changement climatique. Et maintenant, ils se soucient de vivre dans des sociétés ouvertes, me dit Torsten Reil, le co-fondateur de Helsing, une start-up allemande qui utilise l’IA pour intégrer les données du champ de bataille. Si nous voulons vivre dans une société ouverte, nous devons être capables de dissuader et de défendre et de le faire de manière crédible.

Pour certains, cela peut ressembler à un changement de marque cynique de l’industrie de la mort. Mais comme les physiciens l’ont appris pendant la Seconde Guerre mondiale, il est difficile d’être moralement pur lorsque des choix terribles doivent être faits dans le monde réel. À leur grand crédit, de nombreux chercheurs en IA font aujourd’hui pression pour que des conventions internationales significatives limitent les robots tueurs autrement incontrôlables. Mais il serait imprudent de renoncer à l’utilisation responsable de la technologie de l’IA pour défendre les sociétés démocratiques.

john.thornhill@ft.com

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite