L’intelligence artificielle bouleverse déjà la géopolitique – TechCrunch

Le projet TechCrunch Global Affairs examine la relation de plus en plus entrelacée entre le secteur de la technologie et la politique mondiale.

Les acteurs géopolitiques ont toujours utilisé la technologie pour atteindre leurs objectifs. Contrairement à d’autres technologies, l’intelligence artificielle (IA) est bien plus qu’un simple outil. Nous ne voulons pas anthropomorphiser l’IA ou suggérer qu’elle a ses propres intentions. Ce n’est pas encore un agent moral. Mais elle devient rapidement un déterminant primordial de notre destin collectif. Nous pensons qu’en raison des caractéristiques uniques de l’IA et de son impact sur d’autres domaines, des biotechnologies aux nanotechnologies, elle menace déjà les fondements de la paix et de la sécurité mondiales.

Le rythme rapide du développement technologique de l’IA, associé à l’étendue des nouvelles applications (la taille du marché mondial de l’IA devrait plus que neuf fois de 2020 à 2028) signifie que les systèmes d’IA sont largement déployés sans surveillance juridique suffisante ni pleine considération de leur éthique. incidences. Cet écart, souvent appelé problème de rythme, a laissé les législatures et les organes exécutifs tout simplement incapables de faire face.

Après tout, les impacts des nouvelles technologies sont souvent difficiles à prévoir. Les smartphones et les réseaux sociaux étaient intégrés à la vie quotidienne bien avant que nous n’appréciions pleinement leur potentiel d’utilisation abusive. De même, il a fallu du temps pour réaliser les implications de la technologie de reconnaissance faciale pour les violations de la vie privée et des droits de l’homme.

Certains pays déploieront l’IA pour manipuler l’opinion publique en déterminant quelles informations les gens voient et en utilisant la surveillance pour restreindre la liberté d’expression.
En savoir plus sur le projet TechCrunch Global Affairs

À plus long terme, nous n’avons aucune idée des défis actuellement étudiés qui conduiront à des innovations et de la manière dont ces innovations interagiront les unes avec les autres et avec l’environnement au sens large.

Ces problèmes sont particulièrement aigus avec l’IA, car les moyens par lesquels les algorithmes d’apprentissage arrivent à leurs conclusions sont souvent impénétrables. Lorsque des effets indésirables se manifestent, il peut être difficile, voire impossible, d’en déterminer la cause. Les systèmes qui apprennent et modifient constamment leur comportement ne peuvent pas être constamment testés et certifiés pour la sécurité.

Les systèmes d’IA peuvent agir avec peu ou pas d’intervention humaine. Il n’est pas nécessaire de lire un roman de science-fiction pour imaginer des scénarios dangereux. Les systèmes autonomes risquent de saper le principe selon lequel il devrait toujours y avoir un agent humain ou corporatif qui peut être tenu responsable des actions dans le monde, en particulier lorsqu’il s’agit de questions de guerre et de paix. Nous ne pouvons pas demander des comptes aux systèmes eux-mêmes, et ceux qui les déploient diront qu’ils ne sont pas responsables lorsque les systèmes agissent de manière imprévisible.

En bref, nous pensons que nos sociétés ne sont pas préparées à l’IA politiquement, juridiquement ou éthiquement. Le monde n’est pas non plus préparé à la façon dont l’IA transformera la géopolitique et l’éthique des relations internationales. Nous identifions trois façons dont cela pourrait se produire.

Premièrement, les développements de l’IA modifieront l’équilibre des pouvoirs entre les nations. La technologie a toujours façonné le pouvoir géopolitique. Au 19e et au début du 20e siècle, l’ordre international reposait sur les capacités industrielles émergentes des bateaux à vapeur, des avions, etc. Plus tard, le contrôle des ressources en pétrole et en gaz naturel est devenu plus important.

Toutes les grandes puissances sont parfaitement conscientes du potentiel de l’IA pour faire avancer leurs programmes nationaux. En septembre 2017, Vladimir Poutine a déclaré à un groupe d’écoliers: celui qui devient le chef [in AI] deviendra le maître du monde. Alors que les États-Unis sont actuellement en tête de l’IA, les entreprises technologiques chinoises progressent rapidement et sont sans doute supérieures dans le développement et l’application de domaines de recherche spécifiques tels que les logiciels de reconnaissance faciale.

La domination de l’IA par les grandes puissances exacerbera les inégalités structurelles existantes et contribuera à de nouvelles formes d’inégalité. Les pays qui n’ont déjà pas accès à Internet et dépendent des largesses des pays les plus riches seront laissés pour compte. L’automatisation alimentée par l’IA transformera les modèles d’emploi de manière à avantager certaines économies nationales par rapport à d’autres.

Deuxièmement, l’IA habilitera un nouvel ensemble d’acteurs géopolitiques au-delà des États-nations. À certains égards, les entreprises leaders de la technologie numérique sont déjà plus puissantes que de nombreux pays. Comme le demandait le président français Emmanuel Macron en mars 2019 : Qui peut prétendre être souverain, à lui tout seul, face aux géants du numérique ?

La récente invasion de l’Ukraine en est un exemple. Les gouvernements nationaux ont réagi en imposant des sanctions économiques à la Fédération de Russie. Mais sans doute au moins aussi percutantes ont été les décisions d’entreprises telles qu’IBM, Dell, Meta, Apple et Alphabet de cesser leurs activités dans le pays.

De même, lorsque l’Ukraine a craint que l’invasion ne perturbe son accès à Internet, elle a demandé de l’aide non pas à un gouvernement ami, mais à l’entrepreneur technologique Elon Musk. Musk a répondu en activant son service Internet par satellite Starlink en Ukraine et en livrant des récepteurs, permettant au pays de continuer à communiquer.

L’oligopole numérique, avec l’accès à des bases de données volumineuses et croissantes qui servent de carburant aux algorithmes d’apprentissage automatique, devient rapidement un IA oligopole. Compte tenu de leur immense richesse, les grandes entreprises américaines et chinoises peuvent soit développer de nouvelles applications, soit acquérir de plus petites entreprises qui inventent des outils prometteurs. Les systèmes d’apprentissage automatique pourraient également être utiles à l’oligopole de l’IA pour contourner les réglementations nationales.

Troisièmement, l’IA ouvrira des possibilités pour de nouvelles formes de conflit. Celles-ci vont de l’influence sur l’opinion publique et les résultats des élections dans d’autres pays par le biais de faux médias et de publications manipulées sur les réseaux sociaux, à l’interférence avec le fonctionnement d’infrastructures critiques d’autres pays telles que l’électricité, les transports ou les communications.

De telles formes de conflit s’avéreront difficiles à gérer, ce qui incitera à repenser complètement les instruments de contrôle des armements qui ne sont pas adaptés pour lutter contre les armes de coercition. Les négociations actuelles sur le contrôle des armements exigent que les adversaires perçoivent clairement les capacités de chacun et leur nécessité militaire, mais alors que les bombes nucléaires, par exemple, sont limitées dans leur développement et leur application, presque tout est possible avec l’IA, car les capacités peuvent se développer à la fois rapidement et de manière opaque.

Sans traités exécutoires limitant leur déploiement, les systèmes d’armes autonomes assemblés à partir de composants prêts à l’emploi seront éventuellement mis à la disposition des terroristes et d’autres acteurs non étatiques. Il existe également une forte probabilité que des systèmes d’armes autonomes mal compris puissent involontairement déclencher des conflits ou intensifier les hostilités existantes.

La seule façon d’atténuer les risques géopolitiques des IA et de fournir la surveillance agile et complète dont elle aura besoin est de dialoguer ouvertement sur ses avantages, ses limites et ses complexités. Le G20 est un lieu potentiel, ou un nouveau mécanisme de gouvernance internationale pourrait être créé pour impliquer le secteur privé et d’autres parties prenantes clés.

Il est largement reconnu que la sécurité internationale, la prospérité économique, le bien public et le bien-être humain dépendent de la gestion de la prolifération des systèmes d’armes mortelles et du changement climatique. Nous pensons qu’ils dépendront de plus en plus au moins autant de notre capacité collective à façonner le développement et la trajectoire de l’IA et d’autres technologies émergentes.
En savoir plus sur le projet TechCrunch Global Affairs

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite