L’IA et la Chine définissent les défis de notre époque, déclare le directeur de la CISA

Le chef de l’Agence de cybersécurité et de sécurité des infrastructures a mis en garde mercredi contre les risques de sécurité posés par les technologies d’intelligence artificielle générative et une Chine de plus en plus belliqueuse, les qualifiant de deux défis déterminants de notre époque.

Lors d’un événement organisé par Axios, la directrice de la CISA, Jen Easterly, a fait part de ses inquiétudes concernant la cyber-posture agressive de Pékin et la montée en puissance d’outils d’IA générative largement non réglementés et a appelé les entreprises technologiques et les opérateurs d’infrastructures critiques à donner la priorité aux pratiques de sécurité améliorées.

Easterly a cité, en partie, l’évaluation annuelle des menaces 2023 des communautés du renseignement qui a été rendue publique en mars et a noté qu’elle décrivait comment en cas de conflit, comme une invasion ou un blocus du détroit de Taiwan, nous verrons presque probablement des cyber-attaques agressives. opérations ici aux États-Unis. Elle a déclaré que ces cyberattaques seraient probablement conçues pour retarder le déploiement militaire et provoquer une panique sociale et s’appuieraient sur des intrusions numériques capables de perturber les transports, le pétrole et les pipelines.

La CISA, en collaboration avec ses partenaires de partage de renseignements Five Eyes, a publié la semaine dernière un avis conjoint sur la cybersécurité qui partageait des détails techniques sur un acteur de cybermenace lié à Pékin, connu sous le nom de Volt Typhoon, qui cible les réseaux d’opérateurs d’infrastructures critiques. Easterly a déclaré que l’avis était un véritable signal d’alarme pour nos inquiétudes quant à la raison pour laquelle nous devons accroître la sécurité et la résilience de notre infrastructure critique.

Ce sont les types de menaces contre lesquelles nous devons être prêts à nous défendre, et c’est pourquoi il est si incroyablement important de continuer à doter notre budget de ressources, a-t-elle ajouté, citant le budget proposé par la Maison Blanche pour l’exercice 2024 qui allouerait 3,1 milliards de dollars à CISA une augmentation de 145 millions de dollars au budget actuel de l’agence.

Easterly, qui a fait pression ces derniers mois pour que les entreprises technologiques et les fabricants de logiciels donnent la priorité à la sécurité lors du développement de nouveaux produits, a également réitéré son appel aux entreprises pour qu’elles jouent un rôle plus actif dans la sécurisation de leurs services contre les cybermenaces croissantes, mais l’a recadré pour répondre aux préoccupations croissantes concernant l’essor incontrôlé des technologies d’IA génératives.

Elle a souligné une déclaration conjointe publiée mardi par le Center for AI Safety, dans laquelle plus de 350 personnes, dont le PDG d’OpenAI, Sam Altman, et d’autres dirigeants de la technologie, ont déclaré que l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres acteurs à l’échelle de la société. risques tels que les pandémies et la guerre nucléaire.

Quand vous avez 350 experts qui disent qu’il y a un potentiel d’extinction de l’humanité, je pense qu’il y a beaucoup de raisons de s’inquiéter là-bas, a déclaré Easterly, ajoutant que nous devons rapidement nous mobiliser autour de cela lorsqu’il s’agit de réglementer les outils d’IA.

Comme d’autres fabricants de technologies et de logiciels, Easterly a déclaré que l’IA était encore une autre saveur de la technologie qui doit être construite [with] sécurité à l’avant, sécurité à l’avant.

Je vois le monde à travers trois décennies de renseignement, de contre-terrorisme et de cybersécurité, a-t-elle ajouté. Et à la fin de la journée, ces capacités feront des choses incroyables. Ils rendront nos vies plus faciles et meilleures. Ils rendront la vie plus facile et meilleure pour nos adversaires, qui inonderont l’espace de désinformation, qui pourront créer des cyberattaques et toutes sortes d’armes.

Alors que certains législateurs et dirigeants de la technologie comme Altman ont déjà appelé à une surveillance et à des réglementations accrues concernant l’utilisation et le développement des technologies d’IA, Easterly a déclaré que les entreprises elles-mêmes peuvent déjà prendre des mesures pour prévenir le risque de type extinction décrit dans la déclaration commune d’hier en travaillant pour intégrer la sécurité dans leurs services.

Je demanderais à ces 350 personnes et aux créateurs de l’IA, alors que nous essayons de mettre en place un cadre réglementaire, de penser à l’autorégulation, a déclaré Easterly. Pensez à ce que vous pouvez faire pour ralentir cela, afin que nous ne provoquions pas d’événement d’extinction pour l’humanité.

!function(f,b,e,v,n,t,s)
if(f.fbq)return;n=f.fbq=function()n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments);
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)(window,document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘10155007036758614’);
fbq(‘track’, ‘PageView’);

window.fbAsyncInit = function()
FB.init(
appId : ‘622609557824468’,
autoLogAppEvents : true,
xfbml : true,
version : ‘v2.11’
);
;

(function(d, s, id)
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = « https://connect.facebook.net/en_US/sdk.js »;
fjs.parentNode.insertBefore(js, fjs);
(document, ‘script’, ‘facebook-jssdk’));

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite