Le NIST publie une nouvelle version du cadre de gestion des risques de l’intelligence artificielle pour commentaires | JD Supra

Le National Institute of Standards and Technology (NIST) a publié la deuxième version de son cadre de gestion des risques (RMF) pour l’intelligence artificielle (IA) pour commentaires. Les commentaires sont dus au plus tard le 29 septembre 2022.

Le NIST, qui fait partie du département américain du Commerce, aide les particuliers et les entreprises de toutes tailles à mieux comprendre, gérer et réduire leur « empreinte de risque » respective. Bien que le NIST AI RMF soit un cadre volontaire, il a le potentiel d’avoir un impact sur la législation. Les cadres du NIST ont précédemment servi de base aux réglementations étatiques et fédérales, comme la réglementation sur la cybersécurité du Département des services financiers de l’État de New York de 2017 (23 NYCRR 500).

Le RMF de l’IA a été conçu et est destiné à une utilisation volontaire pour faire face aux risques potentiels dans « la conception, le développement, l’utilisation et l’évaluation des produits, services et systèmes d’IA ». Le NIST envisage l’IA RMF comme un « document vivant » qui sera mis à jour régulièrement au fur et à mesure que la technologie et les approches de la fiabilité de l’IA évoluent et changent au fil du temps.

Selon le RMF d’IA proposé, l’objectif spécifique de ce nouveau cadre est un système d’IA conçu sur un système basé sur une machine qui peut, « pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des prédictions, des recommandations ou des décisions influençant la réalité ». ou des environnements virtuels.

Au milieu de la croissance de l’intelligence artificielle, le AI RMF fournit des conseils sur la façon d’utiliser l’IA de manière respectueuse et responsable. Les cadres de cybersécurité sont conçus pour sécuriser et protéger les données, et le projet AI RMF semble compléter cet objectif.

L’un des nombreux objectifs de l’AI RMF est de mieux clarifier et concevoir le « cycle de vie de l’IA » du NIST. Le cycle de vie actuel de l’IA se concentre sur les problèmes généraux de gestion des risques. Le public principal de ce cadre, tel qu’il est rédigé, sont ceux qui ont la responsabilité de commander ou de financer un système d’IA ainsi que ceux qui font partie de la « structure de gestion d’entreprise » qui régit le cycle de vie de l’IA.

Par exemple, dans le cadre du projet AI RMF, le NIST a défini des « étapes » pour le nouveau modèle de cycle de vie de l’IA. Ces éléments comprennent :

  1. Planifier et concevoir
  2. Collecter et traiter les données
  3. Modèle de construction et d’utilisation
  4. Vérifier & Valider
  5. Déployer
  6. Exploiter et surveiller
  7. Utilisation ou impacté par

L’IA aura un impact sur de nombreux aspects critiques de la société au cours des prochaines années, y compris notre façon de vivre et de travailler. Selon le Forum économique mondial, jusqu’à 97 millions de nouveaux emplois liés à l’IA pourraient être créés d’ici la fin de 2025. Alors que l’IA continue de se développer, il est essentiel de mettre en place un cadre de gestion des risques viable.

Un compagnon NIST AI RMF Playbook (Playbook) a été publié en conjonction avec le deuxième projet de l’AI RMF. Le Playbook est une ressource en ligne et « … comprend des actions suggérées, des références et des conseils de documentation pour les parties prenantes » pour mettre en œuvre les recommandations du RMF AI.

Le NIST organisera un troisième et dernier atelier virtuel les 18 et 19 octobre 2022, avec les principaux experts en IA et les parties intéressées, et s’attend à ce que le RMF et le Playbook finaux de l’IA soient publiés en janvier 2023.

Nous continuerons à suivre ces développements et à vous informer des mises à jour, le cas échéant.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite