L’intelligence artificielle est-elle l’avenir de la guerre ?
Nous discutons des risques derrière les armes autonomes et de leur rôle dans notre vie quotidienne.
Si vous cherchiez ce terminateur à se présenter à notre porte, vous cherchiez peut-être au mauvais endroit, explique Matt Mahmoudi, chercheur en intelligence artificielle à Amnesty International. Ce qu’il fallait en fait surveiller, ce sont ces façons plus banales par lesquelles ces technologies commencent à jouer un rôle dans notre vie quotidienne.
Laura Nolan, ingénieur logiciel et ancienne employée de Google maintenant avec le Comité international pour le contrôle des armes robotiques, est d’accord. Ces types d’armes sont très intimement liés aux technologies de surveillance, dit-elle des systèmes d’armes létaux autonomes ou LAWS.
Au-delà de la surveillance, Nolan avertit que : Prendre la logique de ce qui se faisait dans la guerre ou dans notre société, et nous commençons à l’encoder dans des algorithmes et des processus peut conduire à des choses qui échappent à tout contrôle.
Mais Mahmoudi, dit qu’il existe un espoir d’interdire les armes autonomes, citant les protections existantes contre l’utilisation d’armes chimiques et biologiques. Il n’est jamais trop tard, mais nous devons mettre les êtres humains et non les points de données en tête de l’ordre du jour.
Sur À l’avantMarc Lamont Hill discute des risques liés aux armes autonomes avec le Comité international pour le contrôle des armes robotisées Laura Nolan et Matt Mahmoudi d’Amnesty International.