Le NIST sollicite des commentaires sur le projet de cadre de gestion des risques liés à l’IA dans le cadre d’un vaste atelier des parties prenantes | JD Supra

Du 29 au 31 mars 2022, le National Institute for Science and Technology (NIST) a tenu son deuxième grand atelier des parties prenantes sur son projet de cadre de gestion des risques liés à l’intelligence artificielle, intitulé Construire le cadre de gestion des risques NIST AI : Atelier 2. L’atelier a longuement discuté de la récente publication du NIST Cadre de gestion des risques liés à l’IA : première ébauche (AI RMF ou brouillon). Le NIST sollicite les commentaires des parties prenantes sur le projet dans le cadre d’un processus au cours de l’année prochaine pour publier une version 1.0 complète du RMF de l’IA, que le NIST entend être un outil essentiel pour les organisations afin d’identifier et de gérer les risques liés à l’IA, y compris dans les domaines comme un biais potentiel.

Le projet et l’atelier font tous deux partie des efforts établis du NIST en matière d’IA. Dans la loi sur l’autorisation de la défense nationale pour l’exercice 2021 (2021 NDAA), le Congrès a ordonné au NIST de développer « un cadre volontaire de gestion des risques pour des [AI] systèmes ». Suite à cette directive, fin juillet 2021, le NIST a publié une demande d’informations (RFI) sollicitant des commentaires pour aider à éclairer le développement de l’AI RMF. Le NIST a tenu son premier atelier AI RMF du 19 au 21 octobre 2021, a publié un document conceptuel AI RMF le 13 décembre 2021 et a publié la première ébauche du RMF le 17 mars 2022.

Lors de l’atelier, le NIST a discuté de son dernier projet, qui est ouvert aux commentaires du public jusqu’au 29 avril. Alors que beaucoup de choses ont été couvertes au cours des deux jours de l’atelier consacrés au développement de l’IA RMF, les principaux points de discussion comprenaient :

  • L’importance d’un langage commun de gestion des risques, que le NIST a indiqué qu’il continuera à essayer de développer ;
  • La nécessité de considérer la gestion des risques liés à l’IA comme un processus continu, y compris tout au long du cycle de vie de l’IA ;
  • Les complexités de la définition de nombreux termes dans le RMF de l’IA, tels que « risque » et « IA », que le NIST prendra également en compte ;
  • La question du public approprié pour le RMF IA ; et
  • La richesse des normes sur lesquelles s’appuyer peut promouvoir l’interopérabilité des RMF de l’IA avec d’autres normes d’IA, et la relation complexe entre les normes et les réglementations.

Alors que les deux premiers jours de l’atelier étaient liés au développement du RMF de l’IA en général, le troisième jour s’est concentré sur le risque de biais de l’IA. En plus de son travail de développement de l’IA RMF, le NIST travaille également depuis plusieurs années sur la recherche fondamentale en IA, notamment sur la sécurité, l’explicabilité et les biais de l’IA. Plus récemment, le NIST a publié NIST SP 1270, Vers une norme d’identification et de gestion des biais dans l’intelligence artificielle à la mi-mars.

Les efforts du NIST font partie d’un effort plus vaste à l’échelle du gouvernement fédéral pour résoudre les problèmes associés à la technologie émergente de l’IA. Par exemple, l’année dernière, les responsables de la Maison Blanche ont signalé qu’ils élaboraient une «déclaration des droits» des consommateurs potentiels pour l’IA. Lors de l’atelier NIST de cette semaine, la directrice par intérim du Bureau de la politique scientifique et technologique, le Dr Alondra Nelson, a pris la parole, encourageant le processus de développement de la gestion des risques de l’IA à passer des principes aux pratiques.

Les entreprises qui développent et/ou utilisent l’IA, ainsi que les autres parties prenantes intéressées, doivent porter une attention particulière aux efforts du NIST en matière d’IA et envisager de s’engager dans le processus consensuel du NIST pour développer le RMF de l’IA. Comme d’autres cadres de gestion des risques que le NIST a développés, y compris le cadre de cybersécurité, le RMF final de l’IA promet d’avoir des impacts importants sur la façon dont l’IA est déployée et gérée. Les commentaires sur le projet actuel de RMF AI sont attendus d’ici le 29 avril 2022.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite