Pourquoi les affaires sont en plein essor pour les startups d’IA militaire

Les militaires répondent à l’appel. L’OTAN a annoncé le 30 juin qu’elle créait un fonds d’innovation d’un milliard de dollars qui investirait dans des startups en démarrage et des fonds de capital-risque développant des technologies prioritaires telles que l’intelligence artificielle, le traitement des mégadonnées et l’automatisation.

Depuis le début de la guerre, le Royaume-Uni a lancé une nouvelle stratégie d’IA spécifiquement pour la défense, et les Allemands ont affecté un peu moins d’un demi-milliard à la recherche et à l’intelligence artificielle dans le cadre d’une injection de 100 milliards de dollars à l’armée.

La guerre est un catalyseur de changement, déclare Kenneth Payne, qui dirige la recherche sur les études de défense au Kings College de Londres et est l’auteur du livre Moi, Warbot : l’aube d’un conflit artificiellement intelligent.

La guerre en Ukraine a ajouté de l’urgence à la volonté de pousser davantage d’outils d’IA sur le champ de bataille. Ceux qui ont le plus à gagner sont des startups telles que Palantir, qui espèrent tirer profit de la course des militaires pour mettre à jour leurs arsenaux avec les dernières technologies. Mais les préoccupations éthiques de longue date concernant l’utilisation de l’IA dans la guerre sont devenues plus urgentes à mesure que la technologie devient de plus en plus avancée, tandis que la perspective de restrictions et de réglementations régissant son utilisation semble plus lointaine que jamais.

La relation entre la technologie et l’armée n’a pas toujours été aussi amicale. En 2018, suite aux protestations et à l’indignation des employés, Google s’est retiré du Pentagons Project Maven, une tentative de construire des systèmes de reconnaissance d’images pour améliorer les frappes de drones. L’épisode a provoqué un débat houleux sur les droits de l’homme et la moralité du développement de l’IA pour les armes autonomes.

Cela a également conduit des chercheurs de haut niveau en IA tels que Yoshua Bengio, lauréat du prix Turing, et Demis Hassabis, Shane Legg et Mustafa Suleyman, les fondateurs du principal laboratoire d’IA DeepMind, à s’engager à ne pas travailler sur l’IA létale.

Mais quatre ans plus tard, la Silicon Valley est plus proche que jamais des armées mondiales. Et ce ne sont pas seulement les grandes entreprises, les startups sont enfin en train d’y jeter un coup d’œil, déclare Yll Bajraktari, qui était auparavant directeur exécutif de la National Security Commission on AI (NSCAI) des États-Unis et travaille maintenant pour le Special Competitive Studies Project, un groupe qui fait pression pour plus d’adoption de l’IA aux États-Unis.

Pourquoi l’IA

Les entreprises qui vendent de l’IA militaire revendiquent largement ce que leur technologie peut faire. Ils disent que cela peut aider avec tout, du banal au mortel, du filtrage des CV au traitement des données des satellites ou à la reconnaissance des modèles de données pour aider les soldats à prendre des décisions plus rapides sur le champ de bataille. Un logiciel de reconnaissance d’images peut aider à identifier les cibles. Les drones autonomes peuvent être utilisés pour la surveillance ou les attaques terrestres, aériennes ou maritimes, ou pour aider les soldats à livrer des fournitures de manière plus sûre que ce qui est possible par voie terrestre.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite