Les témoins du panel SASC sur la cybersécurité repoussent la suggestion d’une pause dans le développement de l’IA de pointe – Defence Daily

Les trois témoins lors d’une audition le 19 avril du panel de cybersécurité du Comité sénatorial des forces armées (SASC) ont déclaré qu’une pause dans le développement de l’intelligence artificielle de pointe ne serait ni réalisable ni souhaitable sur le plan militaire.

Le sénateur Mike Rounds (RS.D.), membre du sous-comité, a demandé aux témoins leur point de vue sur une lettre ouverte du 12 avril de l’Institut à but non lucratif Future of Life, un groupe de surveillance surveillant l’intelligence artificielle, les biotechnologies, la technologie nucléaire et le climat. changement.

La lettre, dont les signataires incluent Elon Musk, le PDG de EspaceXet Steve Wozniak, le co-fondateur de Apple Inc. [AAPL]a appelé à une pause dans le développement d’une intelligence artificielle plus puissante que GPT-4.

« Je pense qu’il serait très difficile de négocier un accord international pour faire une pause sur l’IA d’une manière réellement vérifiable », a déclaré Jason Matheny, PDG de RAND et ancien membre de la Commission de sécurité nationale sur l’intelligence artificielle. à la question de Rounds. «Je pense que ce serait presque impossible. Je pense que nous prenons les premières mesures appropriées pour créer un système de gouvernance dans lequel nous pourrions au moins retarder l’accès de la Chine, par exemple, aux puces de calcul à très haute performance grâce aux contrôles à l’exportation d’octobre 2022 sur les puces d’IA et les contrôles ultérieurs sur les semi-conducteurs matériel de fabrication. »

Matheny a déclaré que le DoD pourrait établir des garde-corps garantissant que les équipes cyber-rouges du Pentagone suivent les développements de l’IA affectant la cyberdéfense et l’infraction, y compris les cyber-armes automatisées ; contrôles à l’exportation sur les puces IA de pointe ; utiliser la loi sur la production de défense pour obliger les entreprises à signaler le développement ou la distribution de grands clusters informatiques d’IA, de cycles de formation et de modèles de formation ; et l’inclusion dans les contrats du DoD avec les fournisseurs de cloud computing de l’exigence qu’ils mettent en œuvre le filtrage « connaissez votre client » avant de former de grands modèles d’IA.

« La Chine a déjà dit que ces génératives [AI] les modèles doivent afficher des caractéristiques socialistes », Shyam Sankar, directeur de la technologie de Palantir Technologies [PLTR], a témoigné le 19 avril en réponse à la question de Rounds. « Cela ne doit pas permettre le renversement de l’État, donc ce genre de contraintes qui sont intégrées dans la mesure où cela devient l’IA standard pour le monde est très problématique, et je doublerais l’idée qu’une IA démocratique est cruciale, maintenant que nous allons continuer à construire ces [AI] garde-corps… mais je pense céder notre naissant [AI] l’avantage ici n’est peut-être pas judicieux.

Josh Lospinoso, co-fondateur et PDG de la société de cybersécurité basée en Virginie, Maj5a déclaré au panel de cybersécurité SASC qu ‘«il n’est pas pratique de prendre une sorte de [AI development] pause. »

« Je pense que si nous faisions cela, nos adversaires continueraient à se développer et nous finirions par céder ou abdiquer le leadership en matière d’éthique et de normes sur ces questions, si nous ne continuons pas à nous développer », a-t-il déclaré.

La lettre ouverte du 12 avril du Future of Life Institute a appelé « tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 ».

« Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés », indique la lettre. « Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire. Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela faitpas signifient une pause dans le développement de l’IA en général, simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles de plus en plus grands avec des capacités émergentes.

Bien que Matheny ait déclaré qu’une pause dans le développement de l’IA ne serait pas pratique, il l’a mis en garde dans un témoignage ultérieur.

« Ce qui m’empêche de dormir la nuit, c’est que l’IA est appliquée au développement de nouvelles cyber-armes et armes biologiques pour lesquelles nous n’avons pas de défenses fiables », a-t-il déclaré. « Et je crains qu’en ce moment, le scénario le plus probable soit celui dans lequel ces [AI] les modèles ont été soit volés aux États-Unis, soit construits avec des technologies américaines / des puces américaines / des équipements de fabrication de puces américains. Je pense que l’argument le plus fort en faveur d’une pause est le besoin de nos propres laboratoires de rassembler leur cybersécurité pour réduire la probabilité que le [AI] les modèles qu’ils construisent seront volés par nos adversaires.

Le DoD et les représentants de l’industrie américaine espèrent que le CHIPS et la loi scientifique,promulguée par le président Biden en août dernier constituera un élément de base pour relocaliser la chaîne d’approvisionnement des semi-conducteurs, y compris l’emballage et les tests, nécessaires aux systèmes d’armes américains, y compris ceux activés par l’IA (Défense quotidienne9 août 2022).

Les États-Unis sont en tête dans la conception des semi-conducteurs, mais n’en fabriquent que 12 % et conditionnent et testent encore moins. De plus, l’intelligence artificielle (IA) s’appuie sur des semi-conducteurs de taille inférieure à 14 nanomètres (nm), et seulement deux sociétésCorées du Sud Samsung Électroniqueet basé à TaïwanEntreprise de fabrication de semi-conducteurs de Taiwan(TSMC) ont construit des puces inférieures à 10 nm. TSMC a terminé la construction d’un planteur de puces de 12 milliards de dollars en Arizona.

Lospinoso, boursier Rhodes à West Point et ancien officier cyber de l’armée américaine, a déclaré le 19 avril au panel de cybersécurité du SASC que la propriété gouvernementale des droits sur les données serait essentielle.

« Quand j’étais en uniforme, cela me rendait absolument fou que nous puissions faire fonctionner un avion ou un véhicule terrestre ou un sous-marin dans un environnement de combat et ne pas être en mesure de collecter ou de posséder les données qui provenaient de cette plate-forme », a-t-il témoigné. « C’est juste un énorme problème de sécurité nationale. »

« Malheureusement, nous avons du mal à extraire même les flux de données les plus simples de la grande majorité de nos principaux systèmes d’armes », a déclaré Lospinoso. « Dans certains cas, c’est simplement parce que nous n’avons pas fait l’investissement. Dans d’autres cas, c’est parce que les maîtres de la défense, franchement, verrouillent ces données, et ils ne veulent pas que le gouvernement y ait accès parce qu’ils veulent créer des produits et services supplémentaires en plus de cette plate-forme, et je pense que, si nous voulons gagner dans un conflit « proche des pairs », le DoD doit posséder les données que ses systèmes d’armes génèrent dans un environnement de combat.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite