La Maison Blanche annonce des initiatives pour promouvoir l’innovation responsable en IA
À la lumière de l’émergence et de l’adoption rapides d’outils et de systèmes d’intelligence artificielle (IA), l’administration Biden a convoqué les PDG des principales sociétés d’IA le 4 mai 2023 à la Maison Blanche et a annoncé plusieurs projets visant à promouvoir ce qu’elle appelle une IA « responsable ». innovation.
La Maison Blanche a également signalé une ouverture à la poursuite de la réglementation de ces technologies. « [T]e secteur privé a la responsabilité éthique, morale et légale d’assurer la sûreté et la sécurité de ses produits », a déclaré le vice-président Harris après la réunion, ajoutant que « chaque entreprise doit se conformer aux lois en vigueur pour protéger le peuple américain ». Le président Biden s’est arrêté à la réunion, qui comprenait Sundar Pichai d’Alphabet, Dario Amodei d’Anthropic, Satya Nadella de Microsoft et Sam Altman d’OpenAI, et il a dit aux dirigeants que ce qu’ils faisaient « a un potentiel énorme et un danger énorme ».
Initiatives d’IA
Pour coïncider avec la réunion des PDG, la Maison Blanche a annoncé trois initiatives d’IA qui financent une recherche responsable sur l’IA, fournissent une évaluation communautaire indépendante des systèmes d’IA et lancent le processus d’établissement d’une politique d’IA à l’échelle du gouvernement américain :
Investissement dans la recherche et le développement de l’IA. La National Science Foundation investit 140 millions de dollars pour lancer sept nouveaux instituts nationaux de recherche sur l’IA (les « instituts »), portant le nombre total d’instituts à 25. Les instituts sont chargés de catalyser les efforts de collaboration entre les établissements d’enseignement supérieur, les agences fédérales, l’industrie , et d’autres. Ils poursuivent l’innovation en matière d’IA d’une manière éthique, digne de confiance, responsable et servant le bien public, entraînant des percées dans des domaines tels que le climat, l’agriculture, l’énergie, la santé publique, l’éducation et la cybersécurité. Cet investissement s’ajoute aux milliards que les entreprises du secteur privé consacrent à l’avancement de la technologie.
Test communautaire des systèmes d’IA générative existants. Les principaux développeurs d’IA, dont Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI et Stability AI, ont accepté de participer à une évaluation publique des systèmes d’IA existants, conformément aux principes de divulgation responsable, en août 2023 lors d’une convention de hacker appelée DEFCON 31 Notamment, les modèles d’IA seront évalués ou testés par la communauté, indépendamment du gouvernement ou des entreprises qui les ont développés. Les évaluations seront mesurées par rapport aux principes énoncés dans les documents de politique publiés par l’administration Biden en 2022 et au début de 2023, The Blueprint for an AI Bill of Rights et le cadre de gestion des risques liés à l’IA de l’Institut national des sciences et technologies. Sur la base des enseignements tirés de ces évaluations, l’innovation en matière d’IA peut être améliorée, si nécessaire.
Projet d’orientation politique. À l’été 2023, le Bureau américain de la gestion et du budget (OMB) publiera pour commentaires publics un projet d’orientations politiques sur l’utilisation des systèmes d’IA par le gouvernement américain. Ces orientations serviront à établir des politiques spécifiques que les ministères et organismes fédéraux devront suivre pour garantir que leur développement, leur approvisionnement et leur utilisation de systèmes d’IA sont centrés sur la protection des droits et de la sécurité individuels.
Politique d’orientation et d’administration existante de l’Agence
La Maison Blanche a qualifié ces initiatives de « construire[ing] sur les mesures considérables » que l’Administration a déjà prises pour promouvoir le développement responsable de l’IA. Des efforts supplémentaires pour renforcer l’hygiène de l’IA comprennent le Blueprint for an AI Bill of Rights susmentionné, qui identifie les principes qui devraient guider la conception, l’utilisation et le déploiement de systèmes automatisés pour protéger le public américain, le AI Risk Management Framework, qui énonce des principes pour gestion des risques liés à la validité et à la fiabilité, à la sûreté, à la sécurité et à la résilience, à l’explicabilité et à l’interprétabilité, à la confidentialité, à l’équité et à la partialité, et à une feuille de route pour la création d’une ressource nationale de recherche sur l’IA (NAIRR), publiée plus tôt cette année par le groupe de travail NAIRR.
D’autres agences publient des conseils sur l’IA en un clin d’œil. Par exemple, en avril 2023, quatre agences fédérales – le Consumer Financial Protection Bureau (CFPB), la Federal Trade Commission (FTC), le United States Department of Justice (DOJ) et la US Equal Employment Opportunity Commission (EEOC) – ont publié une déclaration commune s’engageant à utiliser vigoureusement leurs pouvoirs respectifs pour se protéger contre la discrimination et les préjugés dans les systèmes automatisés. Toujours en avril, le Département de la sécurité intérieure a annoncé le lancement d’un groupe de travail dédié à l’utilisation de l’IA pour faire avancer les missions critiques de sécurité intérieure. Et en mai, la FTC a publié un article de blog mettant en garde les entreprises contre l’utilisation d’outils d’IA générative pour modifier le comportement des consommateurs. Le message a expliqué que l’utilisation manipulatrice de l’IA générative peut être illégale, même si tous les clients ne sont pas lésés et même si ceux qui sont lésés ne constituent pas une catégorie de personnes protégées par les lois anti-discrimination.
Points clés à retenir
Les initiatives annoncées et les déclarations de la Maison Blanche fournissent des signaux sur ce que les entreprises devraient faire pour développer et déployer des outils d’IA de manière à minimiser les risques réglementaires.
Tout d’abord, le président « souligne[d] que les entreprises ont la responsabilité fondamentale de s’assurer que leurs produits sont sûrs et sécurisés avant qu’ils ne soient déployés ou rendus publics », selon une lecture de la réunion de la Maison Blanche. En conséquence, les entités doivent valider la sûreté et la sécurité d’un système d’IA avant de le déployer pour une large utilisation.
Deuxièmement, la Maison Blanche a souligné « l’impératif d’atténuer les risques actuels et potentiels que l’IA pose aux individus, à la société et à la sécurité nationale », y compris « les risques pour la sûreté, la sécurité, les droits humains et civils, la vie privée, les emplois et les valeurs démocratiques ». ” L’administration a souligné l’importance du leadership personnel des PDG et les a appelés à « adopter un comportement responsable » et à « prendre des mesures pour garantir une innovation responsable et des garanties appropriées ». Ainsi, les entreprises d’IA doivent concevoir leurs systèmes en gardant à l’esprit la confiance, la sécurité et l’atténuation des risques. (Nous avons discuté des dix principaux risques commerciaux et juridiques de l’IA générative dans une précédente alerte client.)
Troisièmement, parmi les initiatives annoncées, les directives de l’OMB pourraient bien devenir les plus importantes, étant donné que le gouvernement américain est le plus gros acheteur au monde, et quels systèmes d’IA il achète et comment il pèse les droits individuels et la sécurité dans ces décisions, peut avoir répercussions importantes sur le marché commercial.
Il s’agit d’un domaine en plein développement, et nous sommes heureux de répondre à toutes vos questions. Vous pouvez également rester au courant de toutes nos mises à jour en vous abonnant au blog WilmerHale sur la confidentialité et la cybersécurité.