La Maison Blanche dévoile la « Déclaration des droits » de l’intelligence artificielle

L’administration Biden a dévoilé mardi un ensemble d’objectifs ambitieux visant à éviter les dommages causés par la montée en puissance des systèmes d’intelligence artificielle, y compris des directives sur la manière de protéger les données personnelles des personnes et de limiter la surveillance.

Le Blueprint for an AI Bill of Rights ne définit notamment pas de mesures d’application spécifiques, mais se veut plutôt un appel à l’action de la Maison Blanche pour que le gouvernement américain protège les droits numériques et civils dans un monde alimenté par l’IA, ont déclaré des responsables.

C’est l’administration Biden-Harris qui dit vraiment que nous devons travailler ensemble, non seulement au sein du gouvernement, mais dans tous les secteurs, pour vraiment mettre l’équité au centre et les droits civils au centre des façons dont nous fabriquons, utilisons et gouvernons technologies, a déclaré Alondra Nelson, directrice adjointe pour la science et la société au Bureau de la politique scientifique et technologique de la Maison Blanche. Nous pouvons et devons attendre mieux et exiger mieux de nos technologies.

Le bureau a déclaré que le livre blanc représentait une avancée majeure dans le programme des administrations visant à responsabiliser les entreprises technologiques, et a souligné les engagements de diverses agences fédérales à peser de nouvelles règles et à étudier les impacts spécifiques des technologies d’IA. Le document a émergé après une consultation d’un an avec plus de deux douzaines de départements différents, et intègre également les commentaires de groupes de la société civile, de technologues, de chercheurs de l’industrie et d’entreprises technologiques telles que Palantir et Microsoft.

Il met en avant cinq principes fondamentaux qui, selon la Maison Blanche, devraient être intégrés aux systèmes d’IA pour limiter les impacts des biais algorithmiques, donner aux utilisateurs le contrôle de leurs données et garantir que les systèmes automatisés sont utilisés de manière sûre et transparente.

Les principes non contraignants citent des recherches universitaires, des études d’agences et des reportages qui ont documenté les dommages réels causés par des outils alimentés par l’IA, y compris des outils de reconnaissance faciale qui ont contribué à des arrestations injustifiées et un système automatisé qui discrimine les demandeurs de prêt qui ont assisté à un événement historiquement noir. Collège ou université.

Le livre blanc a également déclaré que les parents et les travailleurs sociaux pourraient bénéficier de savoir si les agences de protection de l’enfance utilisaient des algorithmes pour aider à décider quand les familles devraient faire l’objet d’une enquête pour maltraitance.

Plus tôt cette année, après la publication d’une revue AP d’un outil algorithmique utilisé dans un système de protection de l’enfance de Pennsylvanie, les membres du personnel de l’OSTP ont contacté les sources citées dans l’article pour en savoir plus, selon plusieurs personnes qui ont participé à l’appel. L’enquête des AP a révélé que l’outil du comté d’Allegheny au cours de ses premières années de fonctionnement montrait une tendance à signaler un nombre disproportionné d’enfants noirs pour une enquête de négligence obligatoire, par rapport aux enfants blancs.

En mai, des sources ont déclaré que des chercheurs de l’Université Carnegie Mellon et des membres du personnel de l’American Civil Liberties Union se sont entretenus avec des responsables de l’OSTP au sujet de l’utilisation d’algorithmes par les agences de protection de l’enfance. Nelson a déclaré que la protection des enfants contre les dommages technologiques reste un sujet de préoccupation.

Si un outil ou un système automatisé nuit de manière disproportionnée à une communauté vulnérable, il devrait y avoir, on l’espère, qu’il y aurait des leviers et des opportunités pour y remédier grâce à certaines des applications spécifiques et des suggestions prescriptives, a déclaré Nelson, qui est également adjoint assistant du président Joe Biden.

L’OSTP n’a pas fourni de commentaires supplémentaires sur la réunion de mai.

Pourtant, comme de nombreux outils alimentés par l’IA sont développés, adoptés ou financés au niveau de l’État et au niveau local, le gouvernement fédéral exerce une surveillance limitée concernant leur utilisation. Le livre blanc ne fait aucune mention spécifique de la manière dont l’administration Biden pourrait influencer des politiques spécifiques aux niveaux national ou local, mais un haut responsable de l’administration a déclaré que l’administration explorait comment aligner les subventions fédérales sur les directives de l’IA.

Le livre blanc n’a aucun pouvoir sur les entreprises technologiques qui développent les outils et n’inclut aucune nouvelle proposition législative. Nelson a déclaré que les agences continueraient d’utiliser les règles existantes pour empêcher les systèmes automatisés de désavantager injustement les gens.

Le livre blanc n’a pas non plus abordé spécifiquement les technologies alimentées par l’IA financées par le ministère de la Justice, dont la division des droits civils a examiné séparément les préjudices algorithmiques, les préjugés et la discrimination, a déclaré Nelson.

Niché entre les appels à une plus grande surveillance, le livre blanc a également déclaré que lorsqu’ils sont correctement mis en œuvre, les systèmes d’IA ont le pouvoir d’apporter des avantages durables à la société, comme aider les agriculteurs à cultiver des aliments plus efficacement ou à identifier les maladies.

Alimentés par la puissance de l’innovation américaine, ces outils ont le potentiel de redéfinir chaque partie de notre société et d’améliorer la vie de chacun. Cet important progrès ne doit pas se faire au détriment des droits civils ou des valeurs démocratiques, indique le document.

___

Suivez Garance Burke sur Twitter à @garanceburke.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite