Alors que l’attention sur l’IA augmente, la Californie intensifie sa surveillance
Les décideurs politiques californiens tentent cette année de réglementer l’utilisation de l’intelligence artificielle compte tenu de son importance croissante dans la vie quotidienne, des adolescents utilisant des chatbots pour aider aux devoirs aux employeurs filtrant les demandeurs d’emploi potentiels.
Les partisans d’une plus grande protection de l’IA dans le Golden State disent qu’ils pensent avoir un élan compte tenu de l’attention accrue du public avec ChatGPT et d’autres nouvelles technologies, alors que l’effort fait suite à l’appel du président Joe Bidens à un examen plus approfondi de l’industrie.
La Californie va généralement plus vite que le gouvernement fédéral, mais à part la (California Privacy Rights Act), sur l’IA, cela a été assez lent, a déclaré Vinhcent Le, avocat au Greenlining Institute spécialisé dans l’équité technologique. Il semble qu’il y ait plus d’intérêt cette année. Cela semble être une année importante pour les systèmes de décision automatisés et leur réglementation.
Alors que les agences fédérales diffusent des directives au milieu de quelques lois existantes sur l’IA, la Californie est sur le point d’accélérer son rythme. Les réglementations des États concernant l’utilisation des IA dans la vie privée et l’emploi commencent à prendre forme, tandis que les législateurs proposent des projets de loi qui pourraient jeter les bases de futures lois sur l’IA.
Embauche et IA
Alors que les technologies comme ChatGPT sont relativement nouvelles, près d’un quart des organisations utilisent déjà l’IA dans le processus d’embauche, selon une étude réalisée l’année dernière par la Society for Human Resource Management. De tels outils pourraient cependant filtrer injustement certains candidats et conduire à la discrimination.
Le département des droits civils de Californie a mené des efforts pour lutter contre le biais d’embauche des automatisations, et mardi, il a officiellement mis en place ces réglementations proposées pour une période de commentaires publics, entamant le processus d’élaboration des règles.
Selon les membres du conseil départemental, les règles proposées n’innovent pas, mais adaptent simplement les lois existantes sur la discrimination autour de la technologie automatisée. La réglementation interdirait à un système d’IA d’utiliser une caractéristique protégée telle que l’âge, la race, l’orientation sexuelle ou des données qui pourraient lui être affiliées. Les enregistrements et les données autour de l’IA devraient être conservés pendant quatre ans, et l’utilisation de tests de personnalité ou d’énigmes pilotés par l’IA serait interdite pour les offres de pré-emploi.
Plus particulièrement, une entreprise serait responsable de ses propres systèmes de décision automatisés ainsi que de ceux utilisés par ses fournisseurs tiers.
L’accent est mis sur la responsabilité ; de ceux qui développent les algorithmes, a déclaré Gary Friedman, associé principal chez Weil, Gotshal & Manges LLP. La Californie essaie de trouver une voie pour fusionner la responsabilité avec les employeurs et en se concentrant sur l’évaluation de l’algorithme réel que vous utilisez.
Mais il y a des problèmes de conformité, étant donné que les fournisseurs peuvent ne pas vouloir remettre des logiciels propriétaires ou confidentiels, a écrit Nathan Jackson, un avocat spécialisé en droit du travail basé en Californie chez Liebert Cassidy Whitmore, dans un article de blog. Il faudra plus de conseils sur ce qui constitue exactement un biais algorithmique si l’on veut mener un audit, a-t-il ajouté.
L’application pourrait également être un problème. Une personne discriminée par un système automatisé peut ne pas savoir que cette technologie est utilisée en premier lieu, une préoccupation également soulevée au niveau fédéral.
Autres travaux d’agence
Une telle surveillance pourrait être abordée dans les travaux à venir de la California Privacy Protection Agency, qui tourne son attention vers les questions de confidentialité autour de l’IA.
Les mises à jour récentes de la loi complète sur la protection de la vie privée de l’État accordent aux consommateurs et aux employés certains droits lorsqu’une entreprise utilise une technologie de prise de décision automatisée pour collecter des données personnelles, comme leur permettre de se retirer ou de pouvoir demander des informations sur la manière dont la technologie est utilisée. .
L’agence recueille les commentaires du public sur les réglementations qui devraient être émises dans ce domaine. D’autres sujets qu’il explore, tels que les évaluations des risques et la cybersécurité, pourraient également garantir que tous les systèmes d’IA sont sûrs et efficaces, a déclaré Le, qui est également membre du conseil d’administration des agences de protection de la vie privée.
Les efforts des agences de protection de la vie privée et des départements des droits civiques en sont encore aux tout premiers stades, ont noté les observateurs, et cela pourrait prendre des mois ou plus avant que quoi que ce soit ne soit finalisé.
État de la législation
Les projets de loi californiens axés sur l’intelligence artificielle n’ont émergé que vers 2018. Il y a eu une poignée de tentatives de législation peu de temps après, mais de telles mesures ont été rares ou largement infructueuses.
Au moins trois textes législatifs ont été déposés cette année visant à mettre davantage de garanties autour de l’IA et à combler potentiellement les lacunes non couvertes par le processus réglementaire.
Absolument, a déclaré le sénateur d’État Bill Dodd (D) pour savoir s’il y a une meilleure chance de passer avec tout le buzz autour de l’IA que par le passé. C’est [AI] a la grande capacité de prendre des décisions basées sur les données dont il dispose, mais personne ne sait ce qu’il y a dans cette boîte noire. Nous devons garder les yeux grands ouverts sur le pouvoir de cela et nous assurer que c’est là pour aider les gens et ne pas blesser par inadvertance les consommateurs.
Le projet de loi Dodds, SB 313, créerait un bureau de l’intelligence artificielle qui superviserait l’utilisation de l’IA parmi les agences d’État. Un autre projet de loi de la membre de l’Assemblée Rebecca Bauer-Kahan (D), AB 331, pourrait également traiter de la manière dont le gouvernement de l’État utilise l’IA.
Les deux mesures ont un texte préliminaire. Dodd a déclaré qu’il s’attend à une version plus complète vers avril; Le bureau de Bauer-Kahans n’a fait aucun commentaire.
Le troisième projet de loi, AB 302, demanderait simplement au gouvernement de l’État de procéder à un inventaire des systèmes de décision automatisés à haut risque.
Les trois lois californiennes traiteront au moins de l’utilisation de l’IA dans le gouvernement de l’État, donnant l’exemple au secteur privé. Les projets de loi antérieurs chargeaient les agences de définir des directives et des principes concernant l’automatisation. Mais la récente Déclaration des droits de l’IA de la Maison Blanche contient déjà un cadre pour de tels paramètres, fournissant une feuille de route dans le débat.
Dodd a déclaré que son projet de loi révisé contiendrait une exigence de divulgation qui alerte un utilisateur lorsqu’il s’interface avec une application gouvernementale basée sur l’IA. Cette norme, si elle est appliquée aux entreprises, pourrait renforcer l’application des réglementations lorsque les gens savent quand ils ont affaire à l’IA.
Bien que le projet de loi Dodds ne s’applique qu’au gouvernement de l’État, il a déclaré qu’il était possible qu’il soit étendu au secteur privé, même si une telle inclusion ferait face à une bataille difficile. La Chambre de commerce des États-Unis a exprimé des inquiétudes concernant le cadre d’IA des administrations Biden et les groupes d’entreprises californiens sont susceptibles d’avoir des sentiments similaires.
Nous allons également être conscients dans ce projet de loi de ne rien faire qui réduise l’innovation, a déclaré Dodd. La dernière chose que nous voulons faire est de perturber cela.