Les progrès de l’IA / ML dépassent les politiques fédérales, avertissent les cyber-experts
Les experts en cybersécurité et en technologie ont averti mercredi les législateurs que les récentes avancées en matière d’intelligence artificielle et d’apprentissage automatique ont dépassé les politiques actuelles au sein du gouvernement fédéral, nécessitant de nouvelles réglementations et normes pour aider à lutter contre le développement rapide des technologies émergentes.
Et bien qu’il y ait peu de débats sur le potentiel de l’IA / ML à menacer la sécurité nationale des États-Unis et le statut de la nation en tant que leader de l’innovation technologique par rapport à des rivaux proches comme la Chine et la Russie, qui devraient développer les garde-corps pour façonner le développement des technologies, et le l’urgence dans laquelle ceux-ci sont élaborés, sont quelque peu divisés.
« L’application de certains de ces grands modèles au développement de cyber-armes très performantes, d’armes biologiques très performantes, de campagnes de désinformation à grande échelle, pose de graves risques », a déclaré le président et chef de la direction de RAND Corporation, Jason G. Matheny, lors d’une audition mercredi des forces armées du Sénat. sous-comité sur la cybersécurité. « La technologie même que nous développons aux États-Unis pour une utilisation bénigne peut être volée et utilisée à mauvais escient par d’autres. »
Des rapports récents ont suggéré un besoin urgent pour les agences gouvernementales d’élaborer des plans complets et d’améliorer la coordination autour de l’IA, y compris un rapport du Government Accountability Office publié en avril 2022, qui chargeait le DOD d’établir des directives de collaboration, d’améliorer ses stratégies d’IA et d’affiner le processus d’inventaire.
Un rapport distinct de la Commission de sécurité nationale sur l’intelligence artificielle a déclaré que les États-Unis « n’ont pas encore compris à quel point la révolution de l’IA affectera profondément notre économie, notre sécurité nationale et notre bien-être », et a appelé à des investissements majeurs pour financer les efforts d’innovation et de recherche.
Matheny a appelé à un régime de licences et à une approche réglementaire fédérale envers l’IA et le ML pour garantir que des agences comme le ministère de la Défense et d’autres puissent suivre le rythme des progrès technologiques rapides tout en respectant les exigences de sécurité nationale et de cybersécurité.
Certains technologues, dont Tesla et le PDG de Twitter, Elon Musk, ont soutenu le contraire. Musk a récemment cosigné une lettre ouverte rédigée par le Future of Life Institute, une organisation à but non lucratif 501(c)(3) soutenue par plusieurs fondations technologiques, dont la Fondation Musk appelant à une pause de six mois sur le développement de systèmes d’IA afin les chercheurs peuvent « développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants ».
Shyam Sankar, directeur de la technologie et vice-président exécutif de Palantir, a déclaré mercredi au sous-comité que la mise en place d’une pause serait non seulement difficile à mettre en œuvre tant au niveau national qu’à l’étranger, mais que l’interruption du développement et de la recherche reviendrait essentiellement à « céder l’avantage au adversaire.
« Qu’est-ce qui va être différent dans cinq mois et 29 jours? » dit Sankar. « Je doublerais l’idée qu’une IA démocratique est cruciale. Nous continuerons à construire ces garde-fous autour de cela, mais je pense que céder notre avantage naissant ici n’est peut-être pas judicieux. »
Josh Lospinoso, co-fondateur et PDG de Shift5, une société d’analyse de données et de cybersécurité basée à Arlington, a également déclaré qu’il était « impraticable d’essayer de mettre en place une sorte de pause » et a suggéré que des agences comme le DOD devraient plutôt « être habilitées à collecter de manière holistique, évaluer et gérer les données » à l’aide de technologies basées sur l’IA.
Le sénateur Mike Rounds (RS.D.), membre de premier plan du sous-comité, a convenu que la mise en place d’une pause dans le développement de l’IA pourrait présenter un risque pour les intérêts de sécurité des États-Unis, et que cela donnerait effectivement aux concurrents proches un « bond en avant » Sur le terrain.
« Je ne pense pas que le moment soit venu pour les États-Unis de faire une pause dans le développement de nos capacités d’IA », a-t-il déclaré. « Est-il même possible de s’attendre à ce que d’autres concurrents du monde entier envisagent de faire une pause ? »
Le sénateur Joe Manchin (DW.V.), membre éminent du comité, a appelé le Congrès à établir des garde-fous autour du développement de l’IA pour éviter une lacune dans la surveillance adéquate du Congrès et la sécurité nationale.
« Internet a été fondé en 1983 et la section 230 n’est entrée en vigueur qu’en 1996 », a-t-il déclaré. « Depuis, nous discutons de la manière dont nous aurions pu faire plus, et si c’est allé trop loin et qui est responsable. »
Manchin a également demandé un rapport aux panélistes « le plus rapidement possible » sur les recommandations du Congrès concernant le développement de logiciels d’IA, ajoutant : « Nous pouvons alors commencer à examiner comment nous pouvons rédiger une législation et ne pas répéter les erreurs du passé ».
window.fbAsyncInit = function()
FB.init(
appId : ‘586920883021795’,
autoLogAppEvents : true,
xfbml : true,
version : ‘v2.11’
);
;
(function(d, s, id)
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = « https://connect.facebook.net/en_US/sdk.js »;
fjs.parentNode.insertBefore(js, fjs);
(document, ‘script’, ‘facebook-jssdk’));