L’intelligence artificielle a un cadre NIST pour les risques de cybersécurité | JD Supra
Le 3 mairdLina Khan, présidente de la Federal Trade Commission, a précisé que la FTC est bien équipée pour gérer les problèmes mis en évidence par le secteur de l’IA, « y compris la collusion, la monopolisation, les fusions, la discrimination par les prix et les méthodes de concurrence déloyales ».1 L’utilisation croissante de l’IA a également soulevé d’importants problèmes de cybersécurité.
Intérêt pour les systèmes d’intelligence artificielle, « qui peuvent agir de manière inattendue, même pour leurs propres créateurs »,2 a récemment monté en flèche. Un éventail de problèmes ont été largement ignorés malgré leur existence de plusieurs décennies jusqu’à il y a quelques mois, quand apparemment tout à la fois, l’IA a commencé à connaître les mêmes querelles juridiques auxquelles d’autres technologies émergentes sont confrontées depuis des années.
Tout a commencé par une violation de données. Le vendredi 24 mars, ChatGPT a annoncé que plusieurs jours plus tôt, pendant une fenêtre de neuf heures, il était possible pour certains utilisateurs « de voir le prénom et le nom d’un autre utilisateur, son adresse e-mail, son adresse de paiement, les quatre derniers chiffres (uniquement) de un numéro de carte de crédit et la date d’expiration de la carte de crédit. »3 Plus d’un million d’utilisateurs ont été impactés.
Puis, en quelques jours, la lettre ouverte intitulée Pause des expériences d’IA géantes (pendant six mois) a été diffusé (plus de 27 000 technologues l’ont signé),4 une plainte a été déposée auprès de la Federal Trade Commission alléguant que ChatGPT était « un risque pour la vie privée et la sécurité publique »,5 et l’autorité italienne de protection des données l’a interdit pour des raisons de confidentialité des données.6
Comme indiqué dans notre article de février traitant de la législation et de la politique en matière d’IA, des conseils de gestion des risques pour l’IA sont arrivés.7 Le 20 mars 2023, le National Institute of Standards and Technology (NIST) a mis à jour un cadre conçu pour faire face aux risques liés à l’IA (AI RMF). Les frameworks NIST ont une histoire relativement courte mais significative.
En 2013, un décret a été publié obligeant le gouvernement et les organisations du secteur privé à collaborer sur la manière de « maintenir un cyberenvironnement qui encourage l’efficacité, l’innovation et la prospérité économique tout en promouvant la sûreté, la sécurité, la confidentialité des affaires, la vie privée et les libertés civiles ».8
En 2014, le NIST a publié le Cybersecurity Framework (CSF). Le CSF est devenu si largement accepté que l’Ohio, le Connecticut et l’Utah ont des statuts de sphère de sécurité qui stipulent que si le programme écrit de sécurité de l’information d’une organisation est « raisonnablement conforme » au CSF, il dispose d’une défense affirmative contre les réclamations civiles découlant d’une violation de données.9
En 2020, le NIST a publié un compagnon du CSF pour la confidentialité des données (PF). Le PF est conçu pour aider les organisations à suivre les progrès technologiques et nouveaux usages des données et améliorer la gestion des risques. Récemment, le Tennessee a adopté une loi complète sur la confidentialité des données qui oblige les entreprises à avoir un programme de confidentialité écrit conforme au PF.dix
Un nouveau cadre NIST pour l’IA est arrivé
Le RMF IA, comme le CSF et le PF, est destiné à être flexible et à « s’adapter au paysage de l’IA à mesure que les technologies continuent de se développer » et « augmente les pratiques de risque existantes qui doivent s’aligner sur les lois, réglementations et normes applicables ». L’AI RMF répertorie les « brèches de sécurité » comme l’un des principaux dommages potentiels pour les organisations.
Le RMF de l’IA fait également référence aux problèmes de sécurité liés à l’IA « adversaire » – la pratique consistant à modifier les systèmes d’IA pour les manipuler ou les attaquer intentionnellement – et déclare que ce n’est que si les systèmes d’IA maintiennent la confidentialité, l’intégrité et la disponibilité grâce à des mécanismes de protection qu’ils peuvent être considérés comme sécurisés.11
Mais malgré tous les efforts déployés pour rendre le RMF AI facile à comprendre, il n’est pas encore facile de l’appliquer. Il est abstrait, comme son sujet central, et devrait évoluer et changer considérablement au fil du temps. Pour cette raison, le NIST a fourni ces ressources complémentaires :
- Manuel NIST AI RMF
- Vidéo explicative AI RMF
- Feuille de route RMF IA
- Passage pour piétons AI RMF, et
- Divers points de vue12
Collectivement, ces ressources sont destinées à aider « les individus, les organisations et la société » à mieux gérer les risques liés à l’IA. Là encore se trouve le hic, l’étendue de l’IA RMF – une tentative de traiter tous les risques pour tout le monde. Mais un autre digne compagnon existe, le rapport interagences 8286D du NIST publié en novembre dernier, axé sur la gestion des risques de cybersécurité.13
Le rapport interagences encourage l’utilisation de l’analyse d’impact sur les entreprises (BIA) pour les professionnels de la cybersécurité des secteurs public et privé à tous les niveaux et souligne l’importance d’analyser et de comprendre en permanence les risques émergents pour les ressources de l’entreprise qui permettent d’atteindre les objectifs de l’entreprise.
Le rapport interagences décrit comment les organisations peuvent gérer les facteurs de risque qui pourraient avoir un effet défavorable important sur leur situation financière et leur capacité à fonctionner en faisant des choses telles que le catalogage et la catégorisation des actifs et en suivant un processus d’analyse des risques. À la base, le rapport encourage les efforts continus pour comprendre les impacts commerciaux potentiels.
Ce qui nous ramène à l’IA contradictoire, dont Jonathan Care fournit des exemples frappants dans son article du mois dernier intitulé « Fight AI with AI ».
« [A]Un véhicule autonome manipulé pourrait provoquer un accident grave, ou un système de reconnaissance faciale attaqué pourrait fausser l’identification des personnes et conduire à de fausses arrestations. Ces attaques peuvent provenir de diverses sources, y compris d’acteurs malveillants, et pourraient être utilisées pour diffuser de la désinformation, mener des cyberattaques ou commettre d’autres types de crimes. »14
En effet, des organisations telles que Capital One utilisent déjà l’IA pour lutter contre la fraude.15 À terme, ces capacités deviendront des obligations légales obligatoires, tout comme elles l’ont fait pour des éléments tels que l’authentification multifacteur, la planification de la réponse aux incidents de cybersécurité et les programmes de gestion des fournisseurs et des correctifs.16
Les frameworks NIST sont favorisés
Les cadres du NIST intègrent les normes de l’industrie qui deviennent des lois en établissant les obligations légales appropriées. La FTC a précédemment déclaré que, dans certains cas, si les organisations avaient surveillé la sécurité et communiqué sur les cyberattaques sur la base des directives trouvées dans le CSF, elles n’auraient peut-être pas violé les droits des consommateurs.17
Après sa confirmation en 2021, Mme Khan a déclaré que la FTC devait mettre à jour son approche pour suivre le rythme des nouvelles technologies d’apprentissage et des « changements technologiques ». En février, mars et avril, la FTC a émis des avertissements contre la surestimation des capacités de l’IA,18 et le maintien des principes fondamentaux d’équité.19
Pour le risque de cybersécurité, la FTC a encouragé à plusieurs reprises les organisations à évaluer et à ajuster leurs programmes de sécurité « à la lumière de toute modification des opérations ou des accords commerciaux », y compris des méthodes technologiques ou opérationnelles nouvelles ou plus efficaces qui auront un impact. L’AI RMF et le rapport interagences du NIST doivent être pris en compte à ces fins.