Le gouvernement américain publie de nouvelles directives de sécurité de l’IA pour les infrastructures critiques

30 avril 2024RédactionApprentissage automatique/Sécurité nationale

Sécurité de l'IA

Le gouvernement américain a dévoilé de nouvelles directives de sécurité visant à renforcer les infrastructures critiques contre les menaces liées à l’intelligence artificielle (IA).

« Ces lignes directrices s’appuient sur les efforts déployés par l’ensemble du gouvernement pour évaluer les risques liés à l’IA dans les seize secteurs d’infrastructures critiques et pour répondre aux menaces provenant et provenant des systèmes d’IA, ainsi qu’impliquant ceux-ci », a déclaré lundi le ministère de la Sécurité intérieure (DHS).

En outre, l’agence a déclaré qu’elle s’efforçait de faciliter une utilisation sûre, responsable et digne de confiance de la technologie d’une manière qui ne porte pas atteinte à la vie privée, aux droits civils et aux libertés civiles des individus.

Les nouvelles orientations concernent l’utilisation de l’IA pour augmenter et étendre les attaques contre les infrastructures critiques, la manipulation contradictoire des systèmes d’IA et les lacunes de ces outils qui pourraient entraîner des conséquences inattendues, nécessitant la transparence et des pratiques sécurisées dès la conception pour évaluer et atténuer l’IA. des risques.

La cyber-sécurité

Plus précisément, cela couvre quatre fonctions différentes telles que gouverner, cartographier, mesurer et gérer qui couvrent différents aspects du cycle de vie de l’IA :

  • Établir une culture organisationnelle de gestion des risques liés à l’IA
  • Comprendre votre contexte individuel d’utilisation de l’IA et votre profil de risque
  • Développer des systèmes pour évaluer, analyser et suivre les risques liés à l’IA
  • Prioriser et agir sur les risques liés à l’IA pour la sûreté et la sécurité

« Les propriétaires et les opérateurs d’infrastructures critiques devraient tenir compte de leur propre utilisation de l’IA, spécifique à leur secteur et à leur contexte, lors de l’évaluation des risques liés à l’IA et de la sélection des mesures d’atténuation appropriées », a déclaré l’agence.

« Les propriétaires et opérateurs d’infrastructures critiques doivent comprendre où existent ces dépendances à l’égard des fournisseurs d’IA et s’efforcer de partager et de délimiter les responsabilités d’atténuation en conséquence. »

Ce développement intervient quelques semaines après que l’alliance de renseignement Five Eyes (FVEY), composée de l’Australie, du Canada, de la Nouvelle-Zélande, du Royaume-Uni et des États-Unis, a publié une fiche d’information sur la cybersécurité notant la configuration minutieuse requise pour le déploiement de systèmes d’IA.

« L’adoption, le déploiement et l’utilisation rapides des capacités de l’IA peuvent en faire des cibles très précieuses pour les cyber-acteurs malveillants », ont déclaré les gouvernements.

« Les acteurs, qui ont toujours utilisé le vol de données sensibles et de propriété intellectuelle pour promouvoir leurs intérêts, peuvent chercher à coopter les systèmes d’IA déployés et à les utiliser à des fins malveillantes. »

Les meilleures pratiques recommandées incluent la prise de mesures pour sécuriser l’environnement de déploiement, examiner la source des modèles d’IA et la sécurité de la chaîne d’approvisionnement, garantir une architecture d’environnement de déploiement robuste, renforcer les configurations de l’environnement de déploiement, valider le système d’IA pour garantir son intégrité, protéger les pondérations des modèles, appliquer des contrôles d’accès stricts, effectuez des audits externes et mettez en œuvre une journalisation robuste.

Le non-respect de mesures de sécurité robustes peut avoir de graves conséquences, permettant à des parties malveillantes de lancer des attaques d’inversion de modèle et de corrompre des modèles d’IA dans le but de falsifier délibérément le comportement attendu de manière à déclencher des impacts en cascade en aval.

Plus tôt ce mois-ci, le centre de coordination du CERT (CERT/CC) a détaillé une lacune dans la bibliothèque de réseau neuronal Keras 2 qui pourrait être exploitée par un attaquant pour pirater un modèle d’IA populaire et le redistribuer, empoisonnant ainsi la chaîne d’approvisionnement des applications dépendantes.

Des recherches récentes ont également montré que les systèmes d’IA sont vulnérables à un large éventail d’attaques par injection rapide qui incitent le modèle d’IA à contourner les mécanismes de sécurité et à produire des résultats nuisibles.

La cyber-sécurité

« Les attaques par injection rapide via du contenu empoisonné constituent un risque majeur pour la sécurité, car un attaquant qui le fait peut potentiellement envoyer des commandes au système d’IA comme s’il en était l’utilisateur », a noté Microsoft dans un rapport publié il y a deux semaines.

Une de ces techniques, baptisée Crescendo, a été décrite comme un jailbreak multitours de grand modèle de langage (LLM), qui, comme le jailbreak à plusieurs reprises d’Anthropic, incite le modèle à générer du contenu malveillant en « posant des questions ou des invites soigneusement conçues qui guident progressivement le LLM ». vers un résultat souhaité, plutôt que de demander l’objectif d’un seul coup. »

Les invites de jailbreak LLM sont devenues populaires parmi les cybercriminels cherchant à créer des leurres de phishing efficaces, alors même que les acteurs des États-nations ont commencé à utiliser l’IA générative pour orchestrer des opérations d’espionnage et d’influence.

Plus inquiétant encore, de nouvelles études de l’Université de l’Illinois à Urbana-Champaign ont découvert que les agents LLM peuvent être utilisés pour exploiter de manière autonome des vulnérabilités ponctuelles dans des systèmes réels en utilisant simplement leurs descriptions CVE et « pirater des sites Web, en effectuant des tâches aussi complexes ». comme l’extraction aveugle de schémas de bases de données et les injections SQL sans retour humain. »

Vous avez trouvé cet article intéressant ? Suivez-nous sur Twitter et LinkedIn pour lire davantage de contenu exclusif que nous publions.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite