Le NIST se penche sur le risque lié à l’IA

Alors que les organisations commencent à adopter des produits, des systèmes et des services d’IA dans leur environnement, elles recherchent des conseils sur l’atténuation des biais algorithmiques et d’autres risques. La grande crainte de l’IA est qu’elle puisse être utilisée d’une manière à laquelle les concepteurs n’ont pas assisté.

Cette focalisation sur la prise de conscience de l’impact humain sur la technologie fait partie de l’effort socio-technique de l’Institut national des normes et de la technologie pour développer un cadre pour aider les organisations à gérer les biais dans l’IA et à incorporer la confiance dans les systèmes. Le NIST sollicite actuellement des commentaires publics et privés sur la deuxième version du cadre de gestion des risques de l’intelligence artificielle et sur le manuel NIST AI RMF Playbook. Le manuel AI RMF est destiné à aider les organisations à mettre en œuvre le cadre, avec des actions suggérées, des références et des conseils supplémentaires.

Le cadre est divisé en quatre fonctions : gouverner, cartographier, mesurer et gérer. Le playbook offrira des conseils sur les deux premières fonctions, Gouverner et Mapper. Les recommandations pour les deux derniers, Mesurer et Gérer, seront disponibles à une date ultérieure.

Le NIST affirme que son approche socio-technique reliera la technologie aux valeurs sociétales et développera des orientations qui tiennent compte des façons dont les humains peuvent avoir un impact sur la façon dont la technologie est utilisée. Le cadre examine également l’interaction entre les préjugés et la cybersécurité et la façon dont ils interagissent les uns avec les autres, a déclaré le NIST lors de la présentation du premier projet.

Le cadre de gestion des risques de l’intelligence artificielle du NIST s’est concentré sur trois types de biais associés à l’IA : statistiques, systémiques et humaines. Les recommandations actuelles incluent la promotion d’une structure de gouvernance avec des rôles et des responsabilités individuels clairs, et une culture professionnelle qui favorise une rétroaction transparente sur les technologies et les produits. Un biais systémique serait un processus commercial ou opérationnel qui contribue à une décision systématiquement faussée.

D’après mon expérience, ce que j’ai constaté, c’est une trop grande dépendance à l’IA, déclare Chuck Everette, directeur du plaidoyer en matière de cybersécurité chez Deep Instinct. Je vois trop souvent que les organisations oublient que les menaces évoluent et changent constamment, vous devez donc vous assurer que vos algorithmes d’IA sont correctement réglés et que vos modèles sont correctement adaptés aux menaces les plus récentes. De plus, j’ai vu des cas où des données biaisées ont été utilisées et introduites, laissant ainsi des environnements ouverts à certains types d’attaques en raison d’une formation de données inexacte.

La période de commentaires pour les deux versions préliminaires se termine le 29 septembre. La version finale de l’AI RMF est attendue au début de 2023, et le playbook suivra.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite