Le cadre de gestion des risques du NIST vise à améliorer la fiabilité de l’intelligence artificielle

La conception circulaire comprend des éléments du cadre de gestion des risques liés à l'IA : gouverner, mesurer, gérer, cartographier.

Crédit:

N. Hanacek/NIST

WASHINGTON Le National Institute of Standards and Technology (NIST) du département américain du commerce a publié son Cadre de gestion des risques liés à l’intelligence artificielle (AI RMF 1.0), un document d’orientation à usage volontaire par les organisations qui conçoivent, développent, déploient ou utilisent des systèmes d’IA pour aider à gérer les nombreux risques des technologies d’IA.

L’AI RMF suit une direction du Congrès pour que le NIST développe le cadre et a été produit en étroite collaboration avec les secteurs privé et public. Il est destiné à s’adapter au paysage de l’IA à mesure que les technologies continuent de se développer et à être utilisé par les organisations à des degrés et capacités variables afin que la société puisse bénéficier des technologies de l’IA tout en étant protégée de ses dommages potentiels.

Ce cadre volontaire aidera à développer et à déployer des technologies d’IA de manière à permettre aux États-Unis, à d’autres nations et organisations d’améliorer la fiabilité de l’IA tout en gérant les risques en fonction de nos valeurs démocratiques, a déclaré le secrétaire adjoint au Commerce, Don Graves. Il devrait accélérer l’innovation et la croissance de l’IA tout en faisant progresser plutôt que de restreindre ou de nuire aux droits civils, aux libertés civiles et à l’équité pour tous.

Par rapport aux logiciels traditionnels, l’IA présente un certain nombre de risques différents. Les systèmes d’IA sont formés sur des données qui peuvent changer au fil du temps, parfois de manière significative et inattendue, affectant les systèmes d’une manière qui peut être difficile à comprendre. Ces systèmes sont également de nature sociotechnique, ce qui signifie qu’ils sont influencés par la dynamique sociétale et le comportement humain. Les risques liés à l’IA peuvent émerger de l’interaction complexe de ces facteurs techniques et sociétaux, affectant la vie des gens dans des situations allant de leurs expériences avec les chatbots en ligne aux résultats des demandes d’emploi et de prêt.

Le cadre permet aux organisations de penser différemment à l’IA et aux risques. Il promeut un changement de culture institutionnelle, encourageant les organisations à aborder l’IA avec une nouvelle perspective, y compris comment penser, communiquer, mesurer et surveiller les risques liés à l’IA et ses impacts positifs et négatifs potentiels.

Le nouveau cadre devraitaccélérer l’innovation et la croissance de l’IA tout en faisant progresser plutôt que de restreindre ou de nuire aux droits civils, aux libertés civiles et à l’équité pour tous. Le secrétaire adjoint au Commerce, Don Graves

L’AI RMF fournit un processus flexible, structuré et mesurable qui permettra aux organisations de faire face aux risques liés à l’IA. Suivre ce processus de gestion des risques liés à l’IA peut maximiser les avantages des technologies d’IA tout en réduisant la probabilité d’impacts négatifs sur les individus, les groupes, les communautés, les organisations et la société.

Selon le sous-secrétaire aux normes et à la technologie et directeur du NIST, Laurie E. Locascio, le cadre fait partie des efforts plus larges du NIST pour cultiver la confiance dans les technologies d’IA nécessaires si la technologie doit être largement acceptée par la société.

Le cadre de gestion des risques liés à l’IA peut aider les entreprises et autres organisations de tous les secteurs et de toutes les tailles à démarrer ou à améliorer leurs approches de gestion des risques liés à l’IA, a déclaré Locascio. Il offre une nouvelle façon d’intégrer des pratiques responsables et des conseils pratiques pour opérationnaliser une IA fiable et responsable. Nous attendons de l’IA RMF qu’elle contribue à l’élaboration de meilleures pratiques et de normes.

Le RMF IA est divisé en deux parties. La première partie explique comment les organisations peuvent encadrer les risques liés à l’IA et décrit les caractéristiques des systèmes d’IA dignes de confiance. La deuxième partie, au cœur du cadre, décrit quatre fonctions spécifiques de gouvernance, de cartographie, de mesure et de gestion pour aider les organisations à faire face aux risques des systèmes d’IA dans la pratique. Ces fonctions peuvent être appliquées dans des cas d’utilisation spécifiques au contexte et à toutes les étapes du cycle de vie de l’IA.

Travaillant en étroite collaboration avec les secteurs privé et public, le NIST développe l’AI RMF depuis 18 mois. Le document reflète environ 400 ensembles de commentaires formels que le NIST a reçus de plus de 240 organisations différentes sur les versions préliminaires du cadre. Le NIST a publié aujourd’hui des déclarations de certaines des organisations qui se sont déjà engagées à utiliser ou à promouvoir le cadre.

L’agence a également publié aujourd’hui un manuel complémentaire AI RMF, qui suggère des moyens de naviguer et d’utiliser le cadre.

Le NIST prévoit de travailler avec la communauté de l’IA pour mettre à jour périodiquement le cadre et accueille à tout moment les suggestions d’ajouts et d’améliorations au playbook. Les commentaires reçus d’ici la fin février 2023 seront inclus dans une version mise à jour du playbook qui sera publiée au printemps 2023.

En outre, le NIST prévoit de lancer un centre de ressources sur l’IA digne de confiance et responsable pour aider les organisations à mettre en pratique l’IA RMF 1.0. L’agence encourage les organisations à développer et à partager des profils sur la manière dont elles l’utiliseraient dans leurs contextes spécifiques. Les soumissions peuvent être envoyées à AIFramework [at] nist.gov.

Le NIST s’est engagé à poursuivre son travail avec les entreprises, la société civile, les agences gouvernementales, les universités et autres pour développer des orientations supplémentaires. L’agence a publié aujourd’hui une feuille de route pour ce travail.

Le cadre fait partie du portefeuille vaste et croissant du NIST de travaux liés à l’IA qui comprend la recherche fondamentale et appliquée ainsi qu’un accent sur la mesure et l’évaluation, les normes techniques et les contributions à la politique de l’IA.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite