La loi sur l’IA de l’UE pourrait avoir un effet dissuasif sur les efforts en matière d’open source, avertissent les experts

Le groupe de réflexion non partisan Brookings a publié cette semaine un article dénonçant la réglementation du bloc sur l’IA open source, affirmant qu’elle créerait une responsabilité légale pour les systèmes d’IA à usage général tout en sapant leur développement. En vertu du projet de loi sur l’IA de l’UE, les développeurs open source devraient respecter des directives en matière de gestion des risques, de gouvernance des données, de documentation technique et de transparence, ainsi que des normes d’exactitude et de cybersécurité.

Si une entreprise devait déployer un système d’IA open source qui entraînait des résultats désastreux, affirme l’auteur, il n’est pas inconcevable que l’entreprise puisse tenter de détourner sa responsabilité en poursuivant les développeurs open source sur lesquels ils ont construit leur produit.

« Cela pourrait concentrer davantage le pouvoir sur l’avenir de l’IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension publique de l’IA », a écrit Alex Engler, l’analyste de Brookings qui a publié l’article. « En fin de compte, le [E.U.’s] tenter de réglementer l’open source pourrait créer un ensemble alambiqué d’exigences qui mettent en danger les contributeurs d’IA open source, probablement sans améliorer l’utilisation de l’IA à usage général.

En 2021, la Commission européenne – l’organe exécutif politiquement indépendant de l’UE – a publié le texte de la loi sur l’IA, qui vise à promouvoir le déploiement d’une « IA digne de confiance » dans l’UE alors qu’elle sollicite la contribution de l’industrie avant un vote cet automne, l’UE. les institutions cherchent à apporter des modifications aux règlements qui tentent d’équilibrer l’innovation avec la responsabilité. Mais selon certains experts, la loi sur l’IA telle qu’elle est rédigée imposerait des exigences onéreuses aux efforts ouverts pour développer des systèmes d’IA.

La législation contient des exclusions pour quelques catégories d’IA open source, comme celles exclusivement utilisées pour la recherche et avec des contrôles pour éviter les abus. Mais comme le note Engler, il serait difficile, voire impossible, d’empêcher ces projets de pénétrer dans les systèmes commerciaux, où ils pourraient être exploités par des acteurs malveillants.

Dans un exemple récent, Stable Diffusion, un système d’IA open source qui génère des images à partir d’invites de texte, a été publié avec une licence interdisant certains types de contenu. Mais il a rapidement trouvé un public au sein des communautés qui utilisent de tels outils d’IA pour créer des deepfakes pornographiques de célébrités.

Oren Etzioni, PDG fondateur de l’Allen Institute for AI, convient que le projet actuel de loi sur l’IA est problématique. Dans une interview par e-mail avec TechCrunch, Etzioni a déclaré que les charges introduites par les règles pourraient avoir un effet dissuasif sur des domaines tels que le développement de systèmes de génération de texte ouverts, qui, selon lui, permettent aux développeurs de « rattraper » les entreprises Big Tech comme Google. et Méta.

« La route vers l’enfer de la réglementation est pavée des bonnes intentions de l’UE », a déclaré Etzioni. « Les développeurs open source ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être vrai que le logiciel libre peut être fourni « tel quel » — considérons le cas d’un seul étudiant développant une capacité d’IA ; ils ne peuvent pas se permettre de se conformer aux réglementations de l’UE et peuvent être contraints de ne pas distribuer leurs logiciels, ce qui a un effet dissuasif sur les progrès académiques et sur la reproductibilité des résultats scientifiques.

Au lieu de chercher à réglementer les technologies de l’IA de manière générale, les régulateurs de l’UE devraient se concentrer sur des applications spécifiques de l’IA, affirme Etzioni. « Il y a trop d’incertitude et de changement rapide dans l’IA pour que le processus réglementaire lent soit efficace », a-t-il déclaré. « Au lieu de cela, les applications d’IA telles que les véhicules autonomes, les robots ou les jouets devraient faire l’objet d’une réglementation. »

Tous les praticiens ne pensent pas que la loi sur l’IA ait besoin d’être modifiée davantage. Mike Cook, un chercheur en intelligence artificielle qui fait partie du collectif Knives and Paintbrushes, pense qu’il est « parfaitement acceptable » de réglementer l’IA open source « un peu plus fortement » que nécessaire. Établir n’importe quel type de norme peut être un moyen de faire preuve de leadership à l’échelle mondiale, postule-t-il – en encourageant, espérons-le, les autres à emboîter le pas.

« L’alarmisme à propos de ‘l’innovation étouffante’ vient principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n’est généralement pas un point de vue auquel j’accorde beaucoup d’importance », a déclaré Cook. « Je pense qu’il est normal de légiférer au nom d’un monde meilleur, plutôt que de se demander si votre voisin va réglementer moins que vous et en tirer profit d’une manière ou d’une autre. »

À savoir, comme ma collègue Natasha Lomas l’a déjà noté, l’approche basée sur le risque de l’UE énumère plusieurs utilisations interdites de l’IA (par exemple, la notation du crédit social de l’État à la chinoise) tout en imposant des restrictions sur les systèmes d’IA considérés comme «à haut risque» – comme ceux qui ont à voir avec l’application de la loi. Si les réglementations devaient cibler des types de produits plutôt que des catégories de produits (comme Etzioni le soutient), cela pourrait nécessiter des milliers de réglementations – une pour chaque type de produit – conduisant à des conflits et à une incertitude réglementaire encore plus grande.

Une analyse rédigée par Lilian Edwards, professeur de droit à la Newcastle School et conseillère juridique à temps partiel à l’Ada Lovelace Institute, se demande si les fournisseurs de systèmes tels que les grands modèles de langage open source (par exemple, GPT-3) pourraient être responsables après tout. en vertu de la loi sur l’IA. Le libellé de la législation impose aux déployeurs en aval de gérer les utilisations et les impacts d’un système d’IA, dit-elle – pas nécessairement le développeur initial.

« [T]la façon dont les déployeurs en aval utilisent [AI] et l’adapter peut être aussi important que la façon dont il a été construit à l’origine », écrit-elle. « La loi sur l’IA en tient compte, mais pas assez, et ne parvient donc pas à réglementer de manière appropriée les nombreux acteurs qui s’impliquent de diverses manières » en aval « dans la chaîne d’approvisionnement de l’IA. »

Au démarrage de l’IA Hugging Face, le PDG Clment Delangue, l’avocat Carlos Muoz Ferrandis et l’experte en politique Irene Solaiman disent qu’ils accueillent favorablement les réglementations visant à protéger les consommateurs, mais que la loi sur l’IA telle que proposée est trop vague. Par exemple, disent-ils, il n’est pas clair si la législation s’appliquerait aux modèles d’apprentissage automatique «pré-formés» au cœur des logiciels alimentés par l’IA ou uniquement au logiciel lui-même.

« Ce manque de clarté, associé au non-respect des initiatives de gouvernance communautaire en cours telles que les licences d’IA ouvertes et responsables, pourrait entraver l’innovation en amont au sommet de la chaîne de valeur de l’IA, ce qui est une grande priorité pour nous chez Hugging Face, », ont déclaré Delangue, Ferrandis et Solaiman dans un communiqué commun. « Du point de vue de la concurrence et de l’innovation, si vous placez déjà des charges trop lourdes sur les fonctionnalités ouvertes au sommet du flux d’innovation de l’IA, vous risquez d’entraver l’innovation incrémentielle, la différenciation des produits et la concurrence dynamique, cette dernière étant au cœur des marchés technologiques émergents tels que l’IA. -connexes… Le règlement devrait prendre en compte la dynamique d’innovation des marchés de l’IA et ainsi identifier et protéger clairement les principales sources d’innovation sur ces marchés.

Quant à Hugging Face, l’entreprise préconise des outils de gouvernance de l’IA améliorés, quel que soit le langage final de la loi sur l’IA, comme des licences d’IA « responsables » et des cartes modèles qui incluent des informations telles que l’utilisation prévue d’un système d’IA et son fonctionnement. Delangue, Ferrandis et Solaiman soulignent que l’octroi de licences responsables commence à devenir une pratique courante pour les principales versions d’IA, telles que le modèle de langage OPT-175 de Meta.

« L’innovation ouverte et l’innovation responsable dans le domaine de l’IA ne sont pas des objectifs mutuellement exclusifs, mais plutôt complémentaires », ont déclaré Delangue, Ferrandis et Solaiman. « L’intersection entre les deux devrait être une cible centrale pour les efforts réglementaires en cours, comme c’est le cas actuellement pour la communauté de l’IA. »

Cela peut être réalisable. Compte tenu des nombreuses pièces mobiles impliquées dans l’élaboration des règles de l’UE (sans parler des parties prenantes concernées), il faudra probablement des années avant que la réglementation de l’IA dans le bloc ne commence à prendre forme.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite