Le NIST publie un cadre de gestion des risques liés à l’IA et des mises à jour sur les biais dans l’IA
Les progrès de l’intelligence artificielle (IA) ont conduit à un large éventail d’innovations dans de nombreux aspects de notre société et de notre économie, y compris dans un large éventail de secteurs verticaux tels que la santé, les transports et la cybersécurité. Reconnaissant qu’il existe des limites et des risques qui doivent être pris en compte, l’IA a attiré l’attention des régulateurs et des législateurs du monde entier.
En 2020, le Congrès a demandé au National Institute of Standards and Technology (NIST) de développer un cadre de gestion des risques liés à l’IA avec les secteurs public et privé. La semaine dernière, conformément à son mandat, et à la suite de demandes initiales d’informations et d’ateliers sur l’IA qu’il a organisés en 2021, le NIST a publié deux documents relatifs à ses efforts plus larges sur l’IA. Tout d’abord, il a publié une première ébauche duCadre de gestion des risques liés à l’IAle 17 mars. Les commentaires publics sur le cadre sont ouverts jusqu’au 29 avril. De plus, l’agence organise un atelier public du 29 au 31 mars. Deuxièmement, il a mis à jour une publication spéciale,Vers une norme d’identification et de gestion des biais en intelligence artificielle. Bien qu’il ne soit pas clair si les efforts du NIST conduiront à un consensus plus large ou à une législation fédérale sur l’IA, la Federal Trade Commission (FTC) et les législatures des États se concentrent déjà là-dessus dans l’immédiat.
Comme nous l’avons déjà signalé ici sur CPW, la FTC se concentre sur l’IA et a indiqué qu’elle envisageait de promulguer des réglementations liées à l’IA. Bien que les déclarations du commissaire Wilson semblent avoir jeté un doute sur la probabilité que la Commission publie des réglementations axées sur l’IA au cours du premier semestre de cette année, son règlement récent dans l’affaire Weight Watchers renforce l’engagement des agences envers la confidentialité des consommateurs et les questions connexes et les effets que l’IA a sur eux. .
Lois sur l’IA et la confidentialité des États
L’IA est également une priorité au niveau de l’État. À partir de 2023, l’IA, le profilage et d’autres formes de prise de décision automatisée seront réglementés par les lois générales et radicales sur la protection de la vie privée en Californie, en Virginie et au Colorado, offrant aux consommateurs des droits correspondants pour refuser certains traitements de leurs informations personnelles. par l’IA et des processus similaires. Nous pouvons nous attendre à voir les concepts d’IA et de profilage considérablement étoffés dans les réglementations promulguées en vertu de la California Privacy Rights Act (CPRA). À l’heure actuelle, la CPRA est très légère sur les détails concernant le profilage et l’IA, mais exigera apparemment des entreprises, en réponse aux demandes de connaissance/d’accès des consommateurs, qu’elles incluent des informations significatives sur la logique impliquée dans de tels processus de prise de décision, en d’autres termes, des informations sur les algorithmes utilisés dans l’IA et la prise de décision automatisée. Pour l’instant, nous pouvons également nous attendre à voir des réglementations émises en vertu de la loi sur la protection de la vie privée du Colorado (en Virginie, c’est moins clair car le procureur général n’a pas reçu le pouvoir de réglementation). Les organisations doivent comprendre les exigences en matière d’IA, de profilage et de prise de décision automatisée dans ces régimes de confidentialité qui approchent à grands pas, et continuer à faire attention à mesure que l’élaboration des règles en Californie et au Colorado progresse.
Copyright 2022 Squire Patton Boggs (États-Unis) LLPRevue nationale de droit, volume XII, numéro 80