L’ordonnance de Biden sur l’IA n’est pas allée assez loin pour garantir l’équité, mais c’est un bon premier pas, disent les défenseurs

  • Après que l’administration Biden a dévoilé lundi le tout premier décret sur l’IA, les dirigeants de tous les secteurs ont commencé à se pencher sur le document de 111 pages.
  • L’un des principaux débats porte sur la question de l’équité de l’IA : le décret se concentre-t-il suffisamment sur la lutte contre les préjudices réels découlant des modèles d’IA, en particulier ceux qui affectent les communautés marginalisées, et sur l’introduction de moyens de les minimiser ?
  • Pour de nombreux dirigeants de la société civile avec lesquels CNBC s’est entretenu, la réponse est non, même s’ils affirment qu’il s’agit d’une étape significative.

La vice-présidente américaine Kamala Harris applaudit alors que le président américain Joe Biden signe un décret après avoir prononcé un discours sur l’avancement du développement et de l’utilisation sûrs, sécurisés et fiables de l’intelligence artificielle, dans la salle Est de la Maison Blanche à Washington, DC, le 30 octobre. , 2023.

Brendan Smialowski | AFP | Getty Images

Après que l’administration Biden a dévoilé lundi le tout premier décret sur l’intelligence artificielle, une frénésie de législateurs, de groupes industriels, d’organisations de défense des droits civiques, de syndicats et d’autres ont commencé à fouiller dans le document de 111 pages, notant les priorités, les délais spécifiques et , à leurs yeux, les vastes implications de cette action historique.

L’un des principaux débats porte sur la question de l’équité de l’IA. De nombreux dirigeants de la société civile ont déclaré à CNBC que l’ordre ne va pas assez loin pour reconnaître et remédier aux préjudices réels qui découlent des modèles d’IA, en particulier ceux qui affectent les communautés marginalisées. Mais ils disent que c’est une étape significative sur le chemin.

De nombreuses sociétés civiles et plusieurs groupes de l’industrie technologique ont salué les racines du décret, le projet de déclaration des droits de l’IA de la Maison Blanche, publié en octobre dernier, mais ont appelé le Congrès à adopter des lois codifiant les protections et à mieux prendre en compte la formation et le développement de modèles qui donnent la priorité à l’équité de l’IA. au lieu de remédier à ces préjudices après coup.

« Ce décret est un véritable pas en avant, mais nous ne devons pas permettre qu’il soit le seul », a déclaré Maya Wiley, présidente et directrice générale de la Leadership Conference on Civil and Human Rights, dans un communiqué. « Nous avons encore besoin que le Congrès envisage une législation qui réglementera l’IA et garantira que l’innovation nous rende plus justes, plus justes et plus prospères, plutôt que surveillés, réduits au silence et stéréotypés. »

Le président américain Joe Biden et la vice-présidente Kamala Harris arrivent pour un événement sur l’approche de leur administration en matière d’intelligence artificielle dans la salle Est de la Maison Blanche le 30 octobre 2023 à Washington, DC.

Puce Somodevilla | Getty Images

CodyVenzke, conseiller politique principal à l’American Civil Liberties Union, estime que le décret est une « prochaine étape importante pour centrer l’équité, les droits civils et les libertés civiles dans notre politique nationale en matière d’IA », mais que l’ACLU a de « profondes inquiétudes » concernant les sections du décret. sur la sécurité nationale et l’application de la loi.

En particulier, l’ACLU est préoccupée par la volonté du décret d’« identifier les domaines dans lesquels l’IA peut améliorer l’efficacité et la précision des forces de l’ordre », comme indiqué dans le texte.

« L’un des objectifs du décret est clairement que ‘l’IA peut améliorer l’administration gouvernementale, rendre nos vies meilleures et nous ne voulons pas faire obstacle à l’innovation' », a déclaré Venzke à CNBC.

« Certaines de ces démarches risquent de faire perdre une question fondamentale, à savoir : « Devrions-nous déployer des systèmes d’intelligence artificielle ou algorithmiques pour un service gouvernemental particulier ? » Et si nous le faisons, cela doit vraiment être précédé d’audits rigoureux en matière de discrimination et pour garantir que l’algorithme est sûr et efficace, qu’il accomplit ce qu’il est censé faire. »

Margaret Mitchell, chercheuse et scientifique en chef de l’éthique de la startup d’IA Hugging Face, a déclaré qu’elle était d’accord avec les valeurs que le décret met en avant en matière de confidentialité, de sûreté, de sécurité, de confiance, d’équité et de justice, mais qu’elle était préoccupée par le manque d’attention portée aux moyens de former et de développer des modèles. pour minimiser les dommages futurs, avant qu’un système d’IA ne soit déployé.

« Il y a eu un appel pour que l’on se concentre globalement sur l’application de l’équipe rouge, mais pas sur d’autres approches plus critiques de l’évaluation », a déclaré Mitchell.

« Le « Red-teaming » est une approche d’évaluation post-hoc et rétrospective qui fonctionne un peu comme un coup de taupe : maintenant que la formation du modèle est terminée, qu’est-ce qui pourrait être un problème à votre avis ? Voyez s’il s’agit d’un problème. problème et résolvez-le si c’est le cas. »

Mitchell aurait souhaité voir des approches « prospectives » mises en avant dans le décret, telles que des approches d’évaluation désagrégées, qui peuvent analyser un modèle à mesure que les données augmentent.

Le Dr Joy Buolamwini, fondatrice et présidente de l’Algorithmic Justice League, a déclaré mardi lors d’un événement à New York qu’elle estimait que le décret n’était pas à la hauteur en termes de notion de réparation ou de sanctions lorsque les systèmes d’IA nuisent aux communautés marginalisées ou vulnérables.

Même les experts qui ont loué la portée du décret estiment que le travail sera incomplet sans une action du Congrès.

« Le président essaie d’exploiter davantage les lois dont il dispose », a déclaré Divyansh Kaushik, directrice associée pour les technologies émergentes et la sécurité nationale à la Fédération des scientifiques américains.

Par exemple, il cherche à fonctionner dans le cadre de la loi sur l’immigration existante pour faciliter le maintien des travailleurs hautement qualifiés en IA aux États-Unis. Mais la loi sur l’immigration n’a pas été mise à jour depuis des décennies, a déclaré Kaushik, qui a participé aux efforts de collaboration avec l’administration pour élaborer des éléments. de la commande.

Il incombe au Congrès, a-t-il ajouté, d’augmenter le nombre de cartes vertes basées sur l’emploi accordées chaque année et d’éviter de perdre des talents au profit d’autres pays.

De l’autre côté, les dirigeants de l’industrie ont exprimé leur méfiance, voire leur sentiment plus fort, que l’ordonnance allait trop loin et étoufferait l’innovation dans un secteur naissant.

Andrew Ng, leader de longue date de l’IA et cofondateur de Google Brain et Coursera, a déclaré à CNBC qu’il était « très préoccupé par les exigences de reporting pour les modèles dépassant une certaine taille », ajoutant qu’il était « très inquiet des dangers exagérés de l’IA conduisant à des rapports et à des licences ». des exigences qui écrasent l’open source et étouffent l’innovation.

De l’avis de Ng, une réglementation réfléchie de l’IA peut contribuer à faire progresser le domaine, mais une réglementation excessive de certains aspects de la technologie, tels que la taille des modèles d’IA, pourrait nuire à la communauté open source, ce qui profiterait probablement aux géants de la technologie.

La vice-présidente Kamala Harris et le président américain Joe Biden partent après avoir prononcé un discours sur la promotion du développement et de l’utilisation sûrs et fiables de l’intelligence artificielle, dans la salle Est de la Maison Blanche à Washington, DC, le 30 octobre 2023.

Puce Somodevilla | Getty Images

Nathan Benaich, fondateur et associé général d’Air Street Capital, s’est également inquiété des exigences de déclaration pour les grands modèles d’IA, déclarant à CNBC que le seuil de calcul et les stipulations mentionnées dans l’ordonnance sont une « mesure défectueuse et potentiellement déformante ».

« Cela nous apprend peu de choses sur la sécurité et risque de décourager les acteurs émergents de construire de grands modèles, tout en renforçant le pouvoir des opérateurs historiques », a déclaré Benaich à CNBC.

Le vice-président et avocat général de NetChoice, Carl Szabo, a été encore plus direct.

« De larges mesures réglementaires dans la liste de souhaits de Biden en matière de bureaucratie en matière d’IA auront pour résultat d’empêcher de nouvelles entreprises et de nouveaux concurrents d’entrer sur le marché et d’étendre considérablement le pouvoir du gouvernement fédéral sur l’innovation américaine », a déclaré Szabo, dont le groupe compte parmi ses membres Amazon, Google, Meta et TikTok. ses membres. « Ainsi, cette ordonnance expose tout investissement dans l’IA au risque d’être arrêté au gré des caprices des bureaucrates du gouvernement. »

Mais ReggieTownsend, membre du Comité consultatif national sur l’intelligence artificielle (NAIAC), qui conseille le président Biden, a déclaré à CNBC qu’il estime que l’ordonnance n’étouffe pas l’innovation.

« Au contraire, j’y vois une opportunité de créer davantage d’innovation en gardant à l’esprit un ensemble d’attentes », a déclaré Townsend.

David Polgar, fondateur de l’association à but non lucratif All Tech Is Human et membre du conseil consultatif sur le contenu de TikTok, a des conclusions similaires : il s’agit en partie, a-t-il dit, d’accélérer le travail responsable de l’IA au lieu de ralentir la technologie.

« Ce que défend une grande partie de la communauté et ce que je retiens de ce décret, c’est qu’il existe une troisième option », a déclaré Polgar à CNBC. « Il ne s’agit ni de ralentir l’innovation, ni de la laisser libre et potentiellement risquée. »

REGARDER : Nous devons essayer d’impliquer la Chine dans la conversation sur la sécurité de l’IA, déclare le ministre britannique de la Technologie

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite