Quel type de contenu souhaitez-vous chercher ?

Intelligence artificielle et lutte contre la discrimination dans le recrutement

Publié le 19/05/2021 à 08:39 dans Risques psychosociaux.

Temps de lecture : 5 min

Contenu ancien

Il se peut que les informations contenues dans cet article et les liens ne soient plus à jour.

Avec l’arrivée d’Internet, la communication autour des offres d’emploi s’est faite de plus en plus forte, entraînant dans les grandes entreprises une réorganisation des processus de recrutement permettant de gérer un nombre accru de candidatures. Aujourd’hui, 50 % des professionnels RH utilisent au moins un outil basé sur des algorithmes d’intelligence artificielle (IA) pour la gestion automatique des candidatures. Or, si le marché du recrutement prédictif est en croissance rapide, son principal paradoxe renvoie à l’utilisation d’outils de recrutement basé sur l’IA vantant une lutte contre les biais humains mais en engendrant de nouveaux.

La promesse du marché

Les RH sont l’un des secteurs les plus friands des nouvelles technologies liées au recrutement prédictif, convaincues par les arguments avancés par les promoteurs des outils de recrutement intégrant de l’IA : processus plus rapide, plus efficace et plus inclusif pour chacune des étapes de recrutement. Ainsi :

  • en phase de sourcing, l’exploration et la collecte d’informations via les réseaux sociaux sont présentées comme un moyen d’optimiser l’adéquation entre offre et demande. A titre d’exemple, le capital social, comme plusieurs autres informations récoltées sur LinkedIn par exemple, est considéré comme un prédicteur de productivité ;
  • en phase de pré-sélection, afin d’éviter les discriminations véhiculées par les CV, certains outils promeuvent des recrutements conduits par des robots conversationnels ou basés sur des tests psychométriques et l’évaluation de compétences associées au poste à pourvoir ;
  • en phase d’entretien, les candidats sont parfois invités à enregistrer une vidéo qui sera alors analysée par l’IA (mots-clés du discours, expressions faciales, débit de parole, etc.) afin de réduire les biais du recruteur liés à l’apparence et aux premières impressions ;
  • en phase finale de classement et de sélection, les IA limiteraient les biais de jugement du recruteur tel que l’effet de halo ou le biais de confirmation en opérant une présélection automatisée.

A noter que les promoteurs de tels outils réfutent la volonté de remplacer l’homme dans sa tâche de recrutement et insistent sur l’intention d’augmenter les capacités humaines, soulignant que la décision finale appartient au recruteur.

Les limites

La promesse d'objectivité et d’efficacité des outils, éliminant tout biais de jugement humain pour un recrutement non discriminatoire, semble apporter un avantage technique, légal et stratégique pour les entreprises. Or, selon les chercheurs Alain Lacroux et Christelle Martin-Lacroux (2021), cette promesse est encore en partie illusoire pour différentes raisons :

  • les données sur lesquelles s’appuient les outils sont susceptibles d’être faussées, entraînant un biais antérieur au recrutement. En effet, les données des candidats sont croisées avec les salariés en poste dans l’organisation, conduisant au clonage de la population de salariés existante et, bien souvent, au renforcement des stéréotypes (par exemple, si les candidats à des postes techniques sont majoritairement des hommes, l’IA considèrera que les hommes sont meilleurs que les femmes pour ce type d'emploi) ;
  • lors du recrutement, l’aisance face aux outils informatiques et la rapidité de réaction implique une discrimination envers les générations les plus âgées, moins familières avec ce type d’interface (Galois-Faurie & Lacroux, 2014) ;
  • lorsque les entretiens sont différés et mobilisent l’enregistrement vidéo, plusieurs recherches mettent en lumière les défaillances techniques des algorithmes entraînant alors des discriminations. A titre d’exemple, les candidats aux profils atypiques (par rapport aux données constitutives de la base de comparaison) montrent une variation dans le taux d’erreur pour la reconnaissance d’expressions faciales de 1 % pour un homme blanc à 35 % pour une femme noire (Buolamwini & Gebru, 2018) ;
  • par ailleurs, les éléments prédicteurs d’un recrutement sont sélectionnés par l’algorithme en fonction de leur corrélation statistique et non de leur validité causale. Dès lors, un critère comme le lieu de résidence du candidat est susceptible d'apparaître comme un facteur prédictif optimal car les salariés cibles de l’organisation habitent dans cette même ville ;
  • en phase de sélection, la présentation des résultats en forme de classement par l’IA entraîne différents biais comme le biais de présentation (primauté aux candidats apparaissant en tête de liste) ou le biais de cadrage (mise à l’écart des candidats hors liste alors que score agrégé proche de ceux présentés) ;
  • enfin, le biais d'automatisation est la propension à favoriser les suggestions des systèmes de prise de décision automatisés et à ignorer les informations contradictoires faites sans automatisation, même si elles sont correctes. Comme dans les cas bien connus des unités de soins intensifs, des centrales nucléaires ou des cockpits d'avion, en cas de décision ambiguë lors d’un recrutement, la confiance accordée aux algorithmes sera alors supérieure à celle accordée aux hommes, ce qui est susceptible d'entraîner des répercussions non souhaitées (Logg, 2019).

La majorité des promoteurs des outils de recrutement basés sur l’IA est consciente des biais induits par cette dernière et commence à explorer plusieurs pistes de solutions. Néanmoins, à ce jour, la principale difficulté réside dans la correction des algorithmes de deep learning dont les apprentissages encore opaques ne peuvent être supervisés par leurs propres développeurs. Par ailleurs, si l’utilisation de l’IA engendre des risques de discrimination différents de ceux habituellement mis en cause dans le recrutement, elle soulève également d’autres problématiques telles que la protection des données personnelles ou encore la résistance à l’illusion technologique. Selon Yann le Cum, spécialiste reconnu et dirigeant du laboratoire d’IA à Facebook : « la meilleure IA disponible à l’heure actuelle a moins de sens commun qu’un rat ». Il convient ainsi de rester vigilant quant aux capacités promises par ses promoteurs en matière de recrutement.


Références
Buolamwini, J. & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification, Proceedings of Machine Learning Research, Vol. 81, p. 77-91.
Galois-Faurié, I. & Lacroux, A. (2014). ‘Serious games’ et recrutement : Quels enjeux de recherche en gestion des ressources humaines? @GRH, Vol. 10, n°1, p. 11-35.
Lacroux, A. and Martin-Lacroux, C. (2021). L’Intelligence artificielle au service de la lutte contre les discriminations dans le recrutement : nouvelles promesses et nouveaux risques. Management & Avenir, n° 122(2), pp.121-142.
Logg, J.M., Minson, J.A. & Moore, D.A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment, Organizational Behavior & Human Decision Processes, Vol. 151, p. 90-103.

5198

Mathilde Brière

Consultante, Dr Sciences de Gestion

Diplômée d’un Master 2 de Psychologie Sociale des Organisations de l’Université Paris X Nanterre-La Défense et d’un doctorat en Sciences de Gestion du laboratoire pluridisciplinaire LIPHA, Mathilde …