Atelier virtuel sur le cadre de développement logiciel sécurisé du NIST pour l’IA générative et les modèles de base à double usage

SSDF pour l'IA générative et les modèles de base à double usage - calendrier avec le 17 janvier encerclé

Le NIST organise un atelier sur Mercredi 17 janvier 2024, de 9h00 à 13h00 HNE pour réunir l’industrie, le monde universitaire et le gouvernement pour discuter des pratiques de développement de logiciels sécurisés pour les modèles d’IA. Les participants auront un aperçu des principaux défis de cybersécurité spécifiques au développement et à l’utilisation de modèles d’IA, ainsi que des pratiques recommandées pour relever ces défis. Les commentaires de diverses communautés éclaireront la création par le NIST de ressources complémentaires SSDF pour soutenir à la fois les producteurs de modèles d’IA et les organisations qui adoptent et intègrent ces modèles d’IA dans leurs propres logiciels et services.

Arrière-plan

Le octobre 2023, Décret exécutif 14110, Développement et utilisation sûrs, sécurisés et fiables de l’intelligence artificielle, a chargé le NIST de développer une ressource complémentaire au SSDF pour intégrer des pratiques de développement sécurisées pour l’IA générative et pour les modèles de fondation à double usage. NIST SSDF version 1.1 décrit un ensemble de pratiques fondamentales et saines pour le développement général de logiciels sécurisés. Le SSDF se concentre sur les résultats, et non sur les outils et les techniques, de sorte qu’il peut être utilisé pour tout type de développement de logiciels, y compris les modèles d’IA.

Afin de fournir aux producteurs et aux acquéreurs de logiciels plus d’informations sur le développement sécurisé des modèles d’IA, le NIST envisage le développement d’une ou plusieurs ressources complémentaires SSDF sur les modèles d’IA génératifs et les modèles de base à double usage. Ces ressources complémentaires seraient similaires dans leur concept et leur contenu aux profils du cadre de cybersécurité du NIST, du cadre de confidentialité et du cadre de gestion des risques de l’IA.

Durant l’atelier, Le NIST sollicite des commentaires sur plusieurs sujets pour aider à éclairer le développement des futurs profils SSDF, notamment :

  1. Quelles modifications, le cas échéant, doivent être apportées à la version 1.1 de SSDF pour prendre en compte les pratiques de développement sécurisées pour l’IA générative et les modèles de base à double usage ?
  2. Quelles considérations spécifiques à l’IA le NIST devrait-il intégrer dans sa ressource complémentaire ?
  3. Que faut-il inclure d’autre dans les profils SSDF ?
  4. Existe-t-il une alternative au profil SSDF qui serait plus efficace pour répondre aux exigences de l’EO 14110, tout en offrant également flexibilité et neutralité technologique aux producteurs de logiciels ?
  5. Quelles ressources de développement sécurisées spécifiques aux modèles d’IA trouvez-vous les plus utiles ?
  6. Qu’y a-t-il d’unique dans le développement de code pour l’IA générative et les modèles de fondation à double usage ?

Des questions sur l’atelier ou sur le travail du SSDF du NIST ? Contactez-nous via SSD [at] nist.gov (SSD[at]niste[dot]gouvernement).

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite