Les régulateurs américains avertissent qu’ils ont déjà le pouvoir de s’attaquer au biais de l’IA et qu’ils sont prêts à l’utiliser
Lina Khan, présidente de la Federal Trade Commission (FTC), prend la parole lors du Spring Enforcers Summit au ministère de la Justice à Washington, DC, le lundi 27 mars 2023.
Al Drago | Bloomberg | Getty Images
Quatre agences fédérales américaines ont averti mardi qu’elles avaient déjà le pouvoir de lutter contre les dommages causés par les biais de l’intelligence artificielle et qu’elles prévoyaient de l’utiliser.
L’avertissement intervient alors que le Congrès se demande comment il devrait prendre des mesures pour protéger les Américains des risques potentiels découlant de l’IA. L’urgence derrière cette poussée a augmenté à mesure que la technologie a rapidement progressé avec des outils facilement accessibles aux consommateurs, comme le chatbot ChatGPT d’OpenAI. Plus tôt ce mois-ci, le chef de la majorité au Sénat, Chuck Schumer, DN.Y., a annoncé qu’il travaillait à un cadre général pour la législation sur l’IA, indiquant qu’il s’agit d’une priorité importante au Congrès.
Mais alors même que les législateurs tentent de rédiger des règles ciblées pour la nouvelle technologie, les régulateurs ont affirmé qu’ils disposaient déjà des outils nécessaires pour poursuivre les entreprises qui abusent ou abusent de l’IA de diverses manières.
Dans une annonce conjointe du Bureau de la protection financière des consommateurs, du ministère de la Justice, de la Commission pour l’égalité des chances en matière d’emploi et de la Commission fédérale du commerce, les régulateurs ont exposé certaines des façons dont les lois existantes leur permettraient de prendre des mesures contre les entreprises pour leur utilisation de l’IA.
Par exemple, le CFPB étudie ce qu’on appelle la redlining numérique, ou la discrimination en matière de logement qui résulte d’un biais dans les algorithmes de prêt ou d’évaluation des maisons, selon Rohit Chopra, directeur de l’agence. Le CFPB prévoit également de proposer des règles pour garantir que les modèles d’évaluation de l’IA pour l’immobilier résidentiel disposent de garanties contre la discrimination.
« Il n’y a pas d’exemption dans les lois sur les droits civils de notre pays pour les nouvelles technologies et l’intelligence artificielle qui se livrent à une discrimination illégale », a déclaré Chopra aux journalistes lors d’une conférence de presse virtuelle mardi.
« Chaque agence ici aujourd’hui dispose d’autorités légales pour combattre facilement les dommages causés par l’IA », a déclaré la présidente de la FTC, Lina Khan. « Les entreprises doivent être averties que les systèmes qui renforcent la fraude ou perpétuent les préjugés illégaux peuvent enfreindre la loi FTC. Il n’y a aucune exemption AI aux lois en vigueur. »
Khan a ajouté que la FTC est prête à tenir les entreprises responsables de leurs affirmations sur ce que leur technologie d’IA peut faire, ajoutant que la lutte contre le marketing trompeur fait depuis longtemps partie de l’expertise de l’agence.
La FTC est également prête à prendre des mesures contre les entreprises qui cherchent illégalement à bloquer les nouveaux entrants sur les marchés de l’IA, a déclaré Khan.
« Une poignée d’entreprises puissantes contrôlent aujourd’hui les matières premières nécessaires, non seulement les vastes réserves de données, mais aussi les services cloud et la puissance de calcul, sur lesquels les startups et d’autres entreprises s’appuient pour développer et déployer des produits d’IA », a déclaré Khan. « Et ce contrôle pourrait créer l’opportunité pour les entreprises de s’engager dans des méthodes de concurrence déloyales. »
Kristen Clarke, procureure générale adjointe de la Division des droits civils du DOJ, a souligné un règlement antérieur avec Meta concernant des allégations selon lesquelles la société aurait utilisé des algorithmes discriminatoires illégalement sur la base du sexe et de la race lors de l’affichage d’annonces immobilières.
« La Division des droits civils s’est engagée à utiliser les lois fédérales sur les droits civils pour tenir les entreprises responsables lorsqu’elles utilisent l’intelligence artificielle de manière discriminatoire », a déclaré Clarke.
La présidente de l’EEOC, Charlotte Burrows, a noté l’utilisation de l’IA pour l’embauche et le recrutement, affirmant qu’elle peut entraîner des décisions biaisées si elle est formée sur des ensembles de données biaisés. Cette pratique peut ressembler à la sélection de tous les candidats qui ne ressemblent pas à ceux du groupe sélectionné que l’IA a été formée pour identifier.
Pourtant, les régulateurs ont également reconnu que le Congrès avait la possibilité d’agir.
« Je crois qu’il est important que le Congrès se penche sur cela », a déclaré Burrows. « Je ne veux en aucun cas que le fait que je pense que nous ayons des outils assez robustes pour certains des problèmes que nous constatons sape de quelque manière que ce soit ces conversations importantes et l’idée que nous devons également faire plus. »
« L’intelligence artificielle pose certaines des plus grandes menaces modernes en matière de discrimination aujourd’hui et ces problèmes méritent une étude et un examen plus approfondis par les décideurs politiques et d’autres », a déclaré Clarke, ajoutant qu’entre-temps, les agences disposaient « d’un arsenal de lois fondamentales sur les droits civils ». pour « tenir les mauvais acteurs responsables ».
« Alors que nous poursuivons l’application de la loi du côté de l’agence, nous avons accueilli favorablement le travail que d’autres pourraient faire pour déterminer comment nous pouvons nous assurer que nous suivons l’escalade des menaces que nous voyons aujourd’hui », a déclaré Clarke.
Abonnez-vous à CNBC sur YouTube.
REGARDER : Les clones chinois de ChatGPT peuvent-ils lui donner un avantage sur les États-Unis dans une course aux armements en IA ?