La ville de New York promulgue une loi restreignant l’utilisation de l’intelligence artificielle dans les décisions d’emploi

27 décembre 2021

Cliquez pour PDF

À compter du 1er janvier 2023, les employeurs de la ville de New York ne pourront plus utiliser les produits d’apprentissage automatique de l’intelligence artificielle dans les décisions d’embauche et de promotion. Avant la date d’entrée en vigueur, les employeurs qui comptent déjà sur ces produits d’IA voudront peut-être commencer à se préparer pour s’assurer que leur utilisation est conforme aux nouvelles exigences de vérification et de notification des nouvelles lois.

La nouvelle loi régit l’utilisation par les employeurs d’outils de décision d’emploi automatisés, définis comme tout processus de calcul, dérivé de l’apprentissage automatique, de la modélisation statistique, de l’analyse de données ou de l’intelligence artificielle, qui émet des résultats simplifiés, y compris un score, une classification ou une recommandation, qui est utilisé pour aider ou remplacer considérablement la prise de décision discrétionnaire pour la prise de décisions en matière d’emploi qui ont un impact sur les personnes physiques.

La loi interdit l’utilisation de tels outils pour présélectionner un candidat ou un employé en vue d’une décision d’emploi, à moins qu’il n’ait fait l’objet d’un audit de partialité pas plus d’un an avant son utilisation. Un audit de partialité est défini comme une évaluation impartiale par un auditeur indépendant qui teste, au minimum, l’impact disparate des outils sur les individus en fonction de leur race, de leur origine ethnique et de leur sexe. Notamment, la nouvelle loi ne définit pas qui (ou quoi) est considéré comme un auditeur indépendant adéquat. Il ne traite pas non plus de l’utilisation par les employeurs d’un outil de décision d’emploi automatisé qui s’avère avoir un impact disparate à la suite d’un audit sur les préjugés ni n’interdit expressément l’utilisation de ces outils ni ne permet leur utilisation si, par exemple, il a une relation significative avec un important l’objectif commercial de l’employeur.

Un employeur n’est pas autorisé à utiliser un outil de décision d’emploi automatisé pour sélectionner un candidat ou un employé en vue d’une décision d’emploi tant qu’il n’a pas rendu public sur son site Web : (1) un résumé des outils d’audit des biais les plus récents et (2) la date de distribution de l’outil.

La nouvelle loi comprend également deux exigences de préavis, qui doivent toutes deux avoir lieu au moins dix jours ouvrables avant qu’un employeur n’utilise un outil de décision d’emploi automatisé. Les employeurs intéressés par l’utilisation de ces outils doivent d’abord informer chaque candidat ou employé qui réside à New York qu’un outil de décision d’emploi automatisé sera utilisé dans le cadre d’une évaluation ou d’une évaluation de l’individu. Le candidat ou l’employé a alors le droit de demander un autre processus de sélection ou un accommodement. Les employeurs doivent également informer chaque candidat ou employé qui réside à New York des qualifications et caractéristiques du poste que l’outil utilisera dans son évaluation.

En outre, un candidat ou un employé peut soumettre une demande écrite pour certaines informations si elles n’ont pas été divulguées auparavant sur le site Web de l’employeur, notamment : (1) le type de données collectées pour l’outil automatisé de décision d’emploi, (2) la source de ces données, et (3) la politique de conservation des données de l’employeur. Les employeurs sont tenus de répondre dans les 30 jours suivant la réception d’une telle demande.

La nouvelle loi sera appliquée par la Ville et ne crée pas de droit d’action privé. Il prévoit des sanctions pécuniaires potentiellement importantes, y compris une sanction ne dépassant pas 500 $ pour une infraction initiale et chaque infraction supplémentaire se produisant le même jour, puis des sanctions entre 500 $ et 1 500 $ pour les violations ultérieures. De manière significative, chaque jour où un outil de décision d’emploi automatisé est utilisé en violation de la nouvelle loi est considéré comme une violation distincte. Le défaut de fournir l’avis requis à chaque candidat ou employé constitue également une violation distincte.

* * *

Le potentiel de biais algorithmique appris a récemment été un sujet d’intérêt pour les législatures et les organismes de réglementation. Par exemple, le 28 octobre 2021, l’EEOC a annoncé une nouvelle initiative visant à prioriser et à garantir que l’intelligence artificielle et les autres outils émergents utilisés dans les décisions d’emploi sont conformes aux lois fédérales sur les droits civils.


Les avocats suivants de Gibson Dunn ont aidé à préparer cette mise à jour client : Danielle Moss, Harris Mufson, Gabby Levin et Meika Freeman.

Les avocats de Gibson Dunns sont à votre disposition pour répondre à toutes vos questions concernant ces développements. Pour en savoir plus sur ces questions, veuillez contacter l’avocat de Gibson Dunn avec qui vous travaillez habituellement, tout membre du groupe de pratique du travail et de l’emploi du cabinet ou les personnes suivantes :

Danielle J. Moss New York (+1 212-351-6338, dmoss@gibsondunn.com)

Harris M. Mufson New York (+1 212-351-3805, hmufson@gibsondunn.com)

Gabrielle Levin New York (+1 212-351-3901, glevin@gibsondunn.com)

Jason C. Schwartz Coprésident, Groupe du travail et de l’emploi, Washington, DC (+1 202-955-8242, jschwartz@gibsondunn.com)

Katherine VA Smith Coprésidente, Groupe du travail et de l’emploi, Los Angeles (+1 213-229-7107,ksmith@gibsondunn.com)

2021 Gibson, Dunn & Crutcher LLP

Publicité pour les avocats : les documents ci-joints ont été préparés à des fins d’information générale uniquement et ne sont pas destinés à servir de conseils juridiques.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite