L’intelligence artificielle est devenue prépondérante dans de nombreux domaines liés au travail humain. Son usage dans le processus d'embauche a ainsi augmenté ces dernières années, les entreprises se tournant vers des évaluations automatisées, des entretiens numériques aux analyses de données pour étudier les CV et sélectionner les candidats. Alors que l'informatique s'efforce d'améliorer la diversité, l'équité et l'inclusion, il s'avère que l'IA peut faire plus de mal que de bien si les entreprises ne sont pas stratégiques et réfléchies sur la façon dont elles mettent en œuvre ces outils. « Les préjugés proviennent généralement des données. Si vous n'avez pas un ensemble de données représentatif, ou un certain nombre de caractéristiques sur lesquelles votre décision repose, alors vous n'allez pas trouver et évaluer les candidats correctement », explique Jelena Kovačević, professeure d’ingénierie et première doyenne de l'école d'ingénieurs de l'Université de New York.
Le principal problème de l'utilisation de l'IA dans l'embauche est que, dans un secteur à prédominance masculine et blanche depuis des décennies, les données historiques sur lesquelles les systèmes d'embauche de l'IA sont construits auront finalement un biais inhérent. En l'absence d'ensembles de données historiques diversifiés pour former les algorithmes de l'IA, les outils d'embauche liés à cette technologie risquent fort d'être entachés des mêmes préjugés que ceux qui existent dans l'embauche des techniciens depuis les années 1980. Néanmoins, utilisée efficacement, celle-ci peut contribuer à créer un processus d'embauche plus efficace et plus équitable, selon les experts.
Les dangers de la partialité dans l'IA
Envisager l’existence de biais avec l'IA est toujours une préoccupation. En science des données, le biais est défini comme une erreur qui découle d'hypothèses erronées dans l'algorithme d'apprentissage. Entraînez vos algorithmes avec des données qui ne reflètent pas le paysage actuel, et vous obtiendrez des résultats erronés. Ainsi, en matière d'embauche, surtout dans un secteur comme l'informatique, qui a connu des problèmes historiques de diversité, former un algorithme sur d’anciennes données d'embauche peut s’avérer être une erreur fatale. « Il est très difficile de s'assurer qu'un logiciel d'IA n'est pas intrinsèquement biaisé ou n'a pas d'effets biaisés », explique Ben Winters, chargé de l'IA et des droits de l'homme à l'Electronic Privacy Information Center (EPIC) – un centre de recherche indépendant à but non lucratif situé à Washington. Bien que des mesures puissent être prises pour éviter cela, ajoute-t-il, « il a été démontré que de nombreux systèmes ont des effets biaisés basés sur la race et le handicap ».
« Si vous ne disposez pas d'une diversité appréciable dans vos données, il est impossible pour un algorithme de savoir comment les individus issus de groupes sous-représentés se seraient comportés dans le passé. Au lieu de cela, votre algorithme sera biaisé et comparera tous les futurs candidats à cet archétype », précise Jelena Kovačević. « Par exemple, si les personnes noires étaient systématiquement exclues, ou que vous n'aviez aucune femme dans votre entreprise également, et que vous créez un algorithme basé sur cela, alors il n'y a aucune chance que le futur prédise une diversité dans les profils. Si vous n'embauchez que des candidats issus d’universités privées dites « Ivy League schools », vous ne savez pas vraiment comment un candidat issu d'une école moins connue va se comporter, il y a donc plusieurs niveaux de biais », enchaîne-t-elle. Wendy Rentschler, responsable de la responsabilité sociale de l'entreprise, de la diversité, de l'équité et de l'inclusion chez BMC Software, est parfaitement consciente des inconvénients potentiels que l'IA peut apporter au processus d'embauche. Elle cite en exemple le cas tristement célèbre de la tentative d'Amazon de développer un outil de recrutement par IA. L'entreprise a dû arrêter le projet parce que l'algorithme était discriminatoire envers les femmes. « Si la plus grande entreprise de logiciels ne peut pas le faire, je mets en doute toutes les technologies RH et leurs prétentions à le faire », déclare Mme Rentschler.
Ne négliger aucun inconvénient potentiel
Il incombe aux entreprises de s'assurer qu'elles utilisent l'IA dans le processus d'embauche de la manière la plus éthique possible et qu'elles ne sont pas victimes d'affirmations exagérées sur les capacités de ces outils. Matthew Scherer, conseiller politique principal pour la protection de la vie privée des travailleurs au Center for Democracy & Technology, souligne que, puisque le département des ressources humaines ne génère pas de revenus et est généralement considéré comme une dépense, les dirigeants sont parfois impatients d'introduire des technologies d'automatisation qui peuvent aider à réduire les coûts. Cet empressement peut toutefois amener les entreprises à négliger les inconvénients potentiels des logiciels qu'elles utilisent. Mr Scherer note également qu'un grand nombre d'affirmations faites par les sociétés de logiciels d'embauche d'IA sont souvent exagérées, voire complètement fausses. « En particulier, les outils qui prétendent faire des choses comme analyser les expressions faciales des gens, le ton de leur voix, tout ce qui mesure les aspects de la personnalité - c'est de la poudre aux yeux », dit-il.
Au mieux, ces outils « mesurent à quel point une personne est culturellement « normale » dans le cadre d'un entretien vidéo », ce qui peut finalement exclure les candidats handicapés ou tout candidat qui ne correspond pas à ce que l'algorithme détermine comme étant un candidat type. Ces candidats peuvent craindre de ne pas obtenir les aménagements nécessaires à l'évaluation automatisée s'ils ne divulguent pas leur handicap, mais ils peuvent aussi ne pas se sentir à l'aise de le divulguer aussi tôt dans le processus d'embauche, voire pas du tout. Selon M. Scherer, les lois sur la discrimination se divisent en deux catégories : l'impact disparate, qui est une discrimination non intentionnelle, et le traitement disparate, qui est une discrimination intentionnelle. Il est difficile de concevoir un outil qui puisse éviter l'impact disparate « sans favoriser explicitement les candidats issus de groupes particuliers, ce qui constituerait un traitement disparate au sens de la loi fédérale ».
Réglementation en matière d'embauche d'IA
L'IA est une technologie relativement nouvelle, ce qui laisse peu de surveillance en matière de législation, de politiques et de lois autour de la vie privée et des pratiques commerciales. Ben Winters cite une plainte déposée en 2019 par l'EPIC auprès de la FTC, alléguant que HireVue utilisait des pratiques commerciales trompeuses liées à l'utilisation de la reconnaissance faciale dans son logiciel d'embauche. HireVue prétendait offrir un logiciel qui « suit et analyse la parole et les mouvements du visage des candidats pour pouvoir analyser l'adéquation, l'intelligence émotionnelle, les compétences en communication, la capacité cognitive, la capacité de résolution de problèmes, et plus encore ». HireVue est finalement revenu sur ses affirmations concernant la reconnaissance faciale et l'utilisation de cette technologie dans son logiciel.
Mais il existe des technologies similaires qui utilisent des jeux pour « prétendument mesurer les attributs comportementaux subjectifs et les faire correspondre à l'adéquation organisationnelle » ou qui utilisent l'IA pour « explorer internet à la recherche d'informations publiquement disponibles sur les déclarations d'un candidat, puis les analyser pour détecter les signaux d'alarme potentiels ou l'adéquation », estime Ben Winters. La quantité de données que l'IA peut collecter sur un candidat en analysant ses entretiens vidéo, ses évaluations, son CV, son profil LinkedIn ou tout autre profil public sur les médias sociaux a de quoi susciter des inquiétudes. Souvent, les candidats ne savent même pas qu'ils sont analysés par des outils d'IA au cours du processus d'entretien et il existe peu de réglementations sur la façon dont ces données sont gérées.
Soutenir l’humain sans le remplacer
Wendy Rentschler et son équipe chez BMC se sont attachés à trouver des moyens d'utiliser l'IA pour aider le « capital humain de l'entreprise à être plus stratégique ». Ils ont mis en place des outils qui sélectionnent rapidement les candidats à l'aide d'évaluations basées sur les compétences pour le rôle auquel ils postulent et qui programment instantanément des entretiens pour les mettre en relation avec un recruteur. BMC a également utilisé l'IA pour identifier les termes problématiques dans ses descriptions de poste, en veillant à ce qu'elles soient neutres en termes de genre et inclusives pour chaque candidat. BMC a également utilisé le logiciel pour mettre en relation les nouveaux employés avec leurs avantages sociaux et les informations sur l'organisation interne pendant le processus d'intégration. L'objectif de Mme Rentschler est de trouver des moyens de mettre en œuvre l'IA et l'automatisation qui peuvent aider les humains de son équipe à travailler plus efficacement, plutôt que de les remplacer.
Bien que les algorithmes d'IA puissent comporter un biais inhérent basé sur les données historiques d'embauche, une façon d'éviter cela est de se concentrer davantage sur l'embauche basée sur les compétences. L'équipe de Rentschler n'utilise les outils d'IA que pour identifier les candidats qui possèdent des compétences spécifiques qu'elle cherche à ajouter à ses effectifs, et ignore tout autre identifiant tel que l'éducation, le sexe, les noms et autres informations potentiellement identifiantes qui auraient pu historiquement exclure un candidat du processus. En procédant ainsi, BMC a embauché des candidats issus d'horizons inattendus, explique M. Rentschler, notamment un réfugié syrien qui était dentiste à l'origine, mais qui avait également une certaine expérience du codage. Comme le système ne recherchait que des candidats ayant des compétences en codage, l'ancien dentiste a passé le filtre et a été embauché par l'entreprise.
Une utilisation raisonnée de l'IA dans le recrutement
D'autres stratégies éthiques consistent à mettre en place des contrôles et des équilibres. M. Scherer a consulté une entreprise qui a conçu un outil permettant d'envoyer des candidats potentiels à un recruteur, qui examinait ensuite leur CV et décidait s'ils convenaient pour le poste. Même si le recruteur rejette un CV, celui-ci est à nouveau soumis à l'algorithme et, s'il est considéré comme un bon candidat potentiel, il est envoyé à un autre recruteur qui ne sait pas qu'il a déjà été examiné par un autre membre de l'équipe. Cela permet de s'assurer que les CV sont vérifiés deux fois par des humains et que l'on ne se fie pas uniquement à l'IA pour déterminer les candidats qualifiés. Cela permet également de s'assurer que les recruteurs ne négligent pas des candidats qualifiés.
« Il est important que l'humain conserve son jugement et ne se fie pas uniquement à ce que dit la machine. Et c'est là qu'il est difficile de s'entraîner, car la chose la plus facile à faire pour un recruteur humain sera toujours de dire : je vais simplement suivre ce que la machine me dit si l'entreprise attend de moi que j'utilise cet outil », conclut M. Scherer. « Dans l'ensemble, les outils d'embauche de l'IA sont aujourd’hui très peu surveillés. Plusieurs projets de loi étatiques ou locaux ont été introduits. Cependant, nombre de ces projets de loi présentent des lacunes importantes - à savoir qu'ils ne s'appliquent pas aux agences gouvernementales et offrent des solutions de contournement significatives. L'avenir de la réglementation en matière d'embauche assistée par l'IA devrait exiger une transparence importante, des contrôles sur l'application de ces outils, des limites strictes en matière de collecte, d'utilisation et de conservation des données, ainsi que des tests effectués par des tiers indépendants et publiés librement », admet Ben Winters.
Commentaire