Les outils de recrutement d’IA pourraient filtrer les meilleurs candidats
Par Charlotte LyttonCorrespondant de fonctionnalités


Alors que les entreprises s’appuient de plus en plus sur des plateformes de recrutement basées sur l’intelligence artificielle, de nombreux candidats hautement qualifiés se retrouvent dans la salle de coupe.
Analyse du langage corporel. Évaluations vocales. Tests gamifiés. Scanners de CV. Voici quelques-uns des outils utilisés par les entreprises pour sélectionner les candidats à l’aide d’un logiciel de recrutement à intelligence artificielle. Les candidats à un emploi sont confrontés à ces invites automatiques et l’IA décide s’ils correspondent bien ou non.
Les entreprises font de plus en plus confiance à eux. Une enquête IBM menée fin 2023 auprès de plus de 8 500 professionnels de l’informatique dans le monde a montré 42 % des entreprises utilisaient le dépistage par l’IA « pour améliorer le recrutement et les ressources humaines ». 40 % des personnes interrogées envisageaient d’intégrer la technologie.
De nombreux dirigeants du monde de l’entreprise espéraient La technologie de recrutement par l’IA mettrait fin aux préjugés dans le processus de recrutement. Pourtant, dans certains cas, c’est le contraire qui se produit. Certains experts affirment que ces outils sélectionnent de manière inexacte certains des candidats les plus qualifiés et les inquiétudes grandissent quant au fait que le logiciel pourrait éliminer les meilleurs candidats.
« Nous n’avons pas vu beaucoup de preuves qu’il n’y a pas de parti pris ici ou que l’outil sélectionne les candidats les plus qualifiés », déclare Hilke Schellmann, auteur américain de l’ouvrage Algorithm: How AI Can Hijack Your Career and Steal Your Future, et professeur adjoint de journalisme à l’Université de New York. Elle estime que le plus grand risque que ces logiciels posent pour l’emploi n’est pas que les machines prennent la place des travailleurs, comme on le craint souvent, mais plutôt qu’elles les empêchent d’obtenir un rôle.
Un préjudice incalculable
Certains candidats qualifiés se sont déjà retrouvés en porte-à-faux avec ces plateformes de recrutement.
Dans une affaire très médiatisée en 2020, La maquilleuse basée au Royaume-Uni, Anthea Mairoudhiou, a déclaré que son entreprise lui avait demandé de postuler à nouveau pour son rôle. après avoir été mis en congé pendant la pandémie. Elle a été évaluée à la fois sur la base de ses performances passées et via un programme de sélection d’IA, HireVue. Elle dit qu’elle s’est bien classée lors de l’évaluation des compétences, mais après que l’outil d’IA a mal noté son langage corporel, elle s’est retrouvée définitivement au chômage. (HireVue, la société en question,supprimé sa fonction d’analyse faciale en 2021.) D’autres travailleurs ont déposé des plaintes contre des plateformes similaires, explique Schellmann.


Elle ajoute que les candidats savent rarement si ces outils sont la seule raison pour laquelle les entreprises les rejettent en général, et que le logiciel ne dit pas aux utilisateurs comment ils ont été évalués. Pourtant, selon elle, il existe de nombreux exemples flagrants de failles systémiques.
Dans un cas, un utilisateur qui avait été exclu a soumis la même candidature mais a modifié la date de naissance pour se rajeunir. Avec ce changement, ils ont décroché un entretien. Dans une autre entreprise, un outil de contrôle de CV par IA avait été formé sur les CV des employés déjà présents dans l’entreprise, attribuant des notes supplémentaires aux personnes mentionnant des passe-temps « baseball » ou « basket-ball » liés à des employés plus performants, souvent des hommes. Ceux qui mentionnaient le « softball » typiquement féminin ont été déclassés.
Les groupes marginalisés « passent souvent entre les mailles du filet, car ils ont des passe-temps différents et sont allés dans des écoles différentes », explique Schellmann.
Dans certains cas, les critères de sélection biaisés sont évidents, comme l’âgisme ou le sexisme, mais dans d’autres, ils sont opaques. Dans le cadre de ses recherches, Schellmann a postulé à un emploi dans un centre d’appels, pour être sélectionnée par l’IA. Ensuite, elle s’est connectée du côté de l’employeur. Elle avait reçu une note élevée lors de l’entretien, même si elle avait dit des bêtises en allemand alors qu’elle était censée parler anglais, mais elle avait reçu une mauvaise note pour ses informations d’identification réellement pertinentes sur son profil LinkedIn.
Elle craint que les effets négatifs ne se propagent à mesure que la technologie se propage. « Un responsable du recrutement humain partial peut nuire à beaucoup de personnes en un an, et ce n’est pas génial », dit-elle. « Mais un algorithme qui pourrait être utilisé dans toutes les candidatures entrantes dans une grande entreprise pourrait nuire à des centaines de milliers de candidats. »
« Personne ne sait exactement où est le mal »
« Le problème [is] personne ne sait exactement où est le mal », explique-t-elle. Et, étant donné que les entreprises ont économisé de l’argent en remplaçant le personnel RH humain par l’IA, capable de traiter des piles de CV en une fraction du temps, elle pense que les entreprises pourraient être peu motivées à interroger des plis dans la machine.
D’après ses recherches, Schellmann s’inquiète également que les éditeurs de logiciels de dépistage « précipitent » sur le marché des produits sous-développés, voire défectueux, pour tirer profit de la demande. « Les fournisseurs ne vont pas dire publiquement que notre outil ne fonctionne pas ou qu’il est nocif pour les gens », et les entreprises qui les ont utilisés « craignent toujours qu’il y ait un gigantesque recours collectif contre elles ».
Il est important de bien maîtriser cette technologie, dit Sandra Wachterprofesseur de technologie et de réglementation à l’Internet Institute de l’Université d’Oxford.
« Avoir une IA impartiale et équitable n’est pas seulement une chose éthique et juridiquement nécessaire, c’est aussi quelque chose qui rend une entreprise plus rentable », dit-elle. « Il existe une opportunité très claire de permettre à l’IA d’être appliquée de manière à ce qu’elle prenne des décisions plus justes et plus équitables, fondées sur le mérite et qui augmentent également les résultats financiers d’une entreprise. »
Wachter s’efforce d’aider les entreprises à identifier les biais grâce à la co-création du test de disparité démographique conditionnelle, un outil accessible au public qui « agit comme un système d’alarme qui vous avertit si votre algorithme est biaisé. [hiring] les critères de décision provoquent cette inégalité et vous permettent de faire des ajustements pour rendre votre système plus juste et plus précis », dit-elle. Depuis son développement en 2020, Amazon et IBM font partie des entreprises qui l’ont mis en œuvre.
Schellmann, quant à lui, réclame des « garde-fous et une réglementation » à l’échelle de l’industrie de la part des gouvernements ou des organisations à but non lucratif pour garantir que les problèmes actuels ne persistent pas. Si rien n’est fait maintenant, elle craint que l’IA ne rende le monde du travail de demain plus inégalitaire qu’auparavant.