#image_title

Le lobbying de l’IA augmente de 185 % alors que les appels à la réglementation se multiplient

Les centaines d’organisations qui ont fait pression sur l’IA en 2023 couvraient toute une gamme de géants de la technologie et des startups de l’IA, en passant par les produits pharmaceutiques, les assurances, la finance, le monde universitaire, les télécommunications et bien plus encore. Selon l’analyse, jusqu’en 2017, le nombre d’organisations déclarant faire du lobbying en faveur de l’IA restait à un chiffre, mais cette pratique s’est développée lentement mais sûrement au cours des années qui ont suivi, pour exploser en 2023.

Plus de 330 organisations qui ont fait pression sur l’IA l’année dernière n’avaient pas fait de même en 2022. Les données ont montré qu’un certain nombre d’industries étaient de nouveaux venus dans le lobbying de l’IA : des sociétés de puces comme AMD et TSMC, des sociétés de capital-risque comme Andreessen Horowitz, des sociétés biopharmaceutiques comme comme AstraZeneca, des conglomérats comme Disney et des sociétés de données de formation en IA comme Appen.

Les organisations qui ont déclaré avoir fait du lobbying sur les questions d’IA en 2023 font également généralement pression sur le gouvernement sur une série d’autres questions. Au total, ils ont déclaré avoir dépensé plus de 957 millions de dollars en lobbying auprès du gouvernement fédéral en 2023 sur des questions telles que, mais sans s’y limiter, l’IA, selon OpenSecrets.

En octobre, le président Joe Biden a publié un décret sur l’IA, la première action du gouvernement américain en son genre, exigeant de nouvelles évaluations de sécurité, des orientations en matière d’équité et de droits civiques et des recherches sur l’impact de l’IA sur le marché du travail. L’ordonnance charge l’Institut national des normes et de la technologie du ministère américain du Commerce, ou NIST, d’élaborer des lignes directrices pour évaluer certains modèles d’IA, y compris des environnements de test pour ceux-ci, et d’être en partie chargé de développer des « normes fondées sur le consensus » pour l’IA.

Après le dévoilement du décret, une frénésie de législateurs, de groupes industriels, d’organisations de défense des droits civiques, de syndicats et d’autres ont commencé à fouiller dans le document de 111 pages et à prendre note des priorités, des délais spécifiques et des vastes implications de cette action historique. .

L’un des principaux débats s’est concentré sur la question de l’équité de l’IA. De nombreux dirigeants de la société civile ont déclaré à CNBC en novembre que l’ordonnance ne va pas assez loin dans la reconnaissance et la lutte contre les préjudices réels découlant des modèles d’IA, en particulier ceux qui affectent les communautés marginalisées. Mais ils ont dit que c’était une étape significative.

Depuis décembre, le NIST recueille les commentaires publics des entreprises et des particuliers sur la meilleure façon de façonner ces règles ; la période de commentaires publics se termine vendredi. Dans sa demande d’informations, le NIST a spécifiquement demandé aux intervenants de contribuer à l’élaboration de normes d’IA responsable, à tester les vulnérabilités des systèmes d’IA, à gérer les risques de l’IA générative et à contribuer à réduire le risque de « contenu synthétique », qui comprend la désinformation et les deepfakes.

Mary Catherine Wellons et Megan Cassella de CNBC ont contribué au reportage.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite