8 min de lecture

Recrutement par IA : objectivité, biais et cadre légal

#recrutement #intelligence-artificielle #ethique #droit-du-travail #biais-cognitifs
Recrutement par IA : objectivité, biais et cadre légal

Résumé exécutif

  • Mukund Jha, patron de la startup Emergent, utilise ChatGPT pour analyser les transcriptions d’entretiens et noter les candidats, puis compare ces notes avec les évaluations humaines.
  • L’objectif affiché est de lisser les intuitions trop rapides des recruteurs et de constituer un dossier objectif pour chaque candidature.
  • Des réglementations comme la loi 144 de New York et le classement “haut risque” de l’IA en recrutement en Europe encadrent de plus en plus ces pratiques.
  • La conservation des données et le cadre d’utilisation (interface grand public vs. API) posent des questions cruciales de transparence et de conformité légale.
  • L’analyse textuelle par l’IA peut amplifier des biais sociaux et ethniques liés au style linguistique, sans pour autant les supprimer.
  • La méthode d’Emergent agit aussi comme un filtre culturel, écartant les candidats réticents à l’utilisation de l’IA dans le processus.
  • Malgré les outils spécialisés existants, certaines entreprises optent pour des solutions génériques comme ChatGPT, privilégiant la liberté au formalisme.

Introduction

L’intégration de l’intelligence artificielle dans les processus de recrutement s’accélère, dépassant le simple filtrage de CV pour toucher à l’évaluation des entretiens. La startup Emergent, dirigée par Mukund Jha, illustre cette tendance en utilisant systématiquement ChatGPT pour analyser les verbatims d’entretien. Cette pratique soulève une problématique centrale : peut-on atteindre une objectivité supérieure tout en naviguant dans un paysage juridique en construction et en évitant d’amplifier des biais préexistants ? Les enjeux sont opérationnels, éthiques et légaux, engageant la responsabilité des employeurs et les droits des candidats.

L’expérience d’Emergent : un processus hybride homme-machine

Mukund Jha a systématisé un processus où chaque transcription d’entretien est soumise à ChatGPT via un prompt spécifique. Le modèle génère une note, ensuite comparée aux retours de l’équipe de recrutement humaine.

L’objectif principal est de servir de contrepoint aux intuitions parfois rapides des recruteurs. Le fondateur rapporte que l’IA peut parfois identifier un détail passé inaperçu, ou inversement, manquer une nuance captée par l’humain.

Chaque embauche donne lieu à la création d’un dossier complet incluant la transcription, le prompt, la note de l’IA et la comparaison avec l’évaluation humaine. Ce dossier est présenté comme un outil de justification objective en cas de refus.

Le paysage réglementaire : un cadre fragmenté et contraignant

L’utilisation de l’IA en recrutement ne se déploie pas dans un vide juridique. À New York, la loi 144 impose depuis 2023 des audits annuels de biais pour tout outil automatisé utilisé dans les décisions d’emploi.

L’Illinois et le Maryland ont légiféré pour limiter l’analyse vidéo par IA. En Europe, le Règlement sur l’Intelligence Artificielle classe le recrutement dans la catégorie “haut risque”, soumettant ces systèmes à des obligations strictes de transparence et de contrôle.

Aux États-Unis, la Commission pour l’Égalité des Chances en Emploi (EEOC) tient les employeurs responsables des biais induits par des outils tiers, même sans intention discriminatoire. Face à cela, la stratégie d’Emergent consiste à maintenir un décideur humain final, positionnant l’IA comme un assistant à l’audit.

Données personnelles et transparence : les zones d’ombre persistantes

Un point critique réside dans le traitement des données des candidats. OpenAI supprime les conversations de son interface grand public après 30 jours, mais conserve les données soumises via ses API ou ses offres Enterprise selon des règles distinctes.

Un recruteur utilisant l’interface ChatGPT standard n’offre pas les mêmes garanties d’archivage et d’audit qu’une plateforme RH dédiée. Le candidat ignore généralement où et comment ses propos sont traités, et aucune loi n’oblige actuellement l’employeur à l’en informer explicitement.

Les conditions d’utilisation d’OpenAI précisent que l’utilisateur reste propriétaire de ses données d’entrée, mais la société se réserve des droits d’utilisation sur les données soumises via API pour l’amélioration de ses modèles. Le flou persiste sur l’interface exacte utilisée par des acteurs comme Emergent.

L’analyse linguistique : un miroir amplificateur des biais sociaux

ChatGPT analyse un texte, pas une personne. Ce texte porte en lui des marqueurs de style, de fluidité et de niveau de langue fortement corrélés à l’origine sociale, au niveau d’éducation ou à l’appartenance ethnique.

Lorsqu’on demande au modèle d’évaluer la “clarté” ou l‘“honnêteté intellectuelle”, il puise dans ses milliards de paramètres d’entraînement, reflétant des normes linguistiques dominantes. Un candidat au discours direct et technique peut être pénalisé face à un profil plus verbeux et policé.

Des recherches, comme celles menées à Cambridge, montrent que les grands modèles de langage associent certains schémas d’élocution à la compétence, avec des corrélations ethniques et sociales marquées. L’IA ne supprime pas ces biais ; elle les rend moins visibles, donc potentiellement plus dangereux.

Le filtre culturel et l’acceptation du candidat

La publicité autour de la méthode d’Emergent introduit un filtrage culturel en amont. Les candidats réticents à l’idée qu’un modèle analyse leur entretien s’auto-éliminent, estimant ne pas correspondre à la culture de la startup.

Cette approche contraste avec celle d’outils spécialisés comme HireVue ou Eightfold, qui intègrent nativement des mécanismes d’audit, d’explication des décisions et de conformité. Emergent mise sur la flexibilité et la liberté d’un outil générique, au prix d’un formalisme réduit.

Cette divergence illustre un clivage du marché : entre des solutions “boîte noire” dédiées mais contraignantes, et l’adaptation d’outils grand public plus libres mais moins traçables.

Perspectives sectorielles et positionnements des acteurs RH

Les avis des leaders des ressources humaines sont nuancés. Becky Frankiewicz de Manpower Group souligne la capacité de l’IA à traiter les CV plus vite et à apprendre à éviter les biais, à condition d’un entraînement approprié.

Nathalie Scardino de Salesforce insiste sur le rôle irremplaçable de l’humain pour évaluer des soft skills comme l’aptitude à apprendre ou l’adaptabilité. Julie Sweet d’Accenture indique que l’IA est déjà intégrée dans les processus de promotion interne au sein du groupe.

Le consensus émerge sur un modèle hybride, où l’IA prend en charge l’analyse de volumes massifs de données et l’identification de patterns, tandis que l’humain conserve la responsabilité de l’appréciation contextuelle et de la décision finale, notamment pour des questions d’équité.

À retenir

  1. L’utilisation de l’IA comme aide à l’évaluation en recrutement cherche à objectiver le jugement mais introduit de nouveaux risques de biais systémiques, notamment linguistiques.
  2. Le cadre réglementaire se renforce rapidement (NYC 144, AI Act européen), imposant des audits de biais et une plus grande transparence, responsabilisant les employeurs.
  3. Le choix de l’outil (interface grand public vs. API/Enterprise) a des implications directes sur la conservation des données, leur confidentialité et la capacité à auditer les décisions.
  4. La transparence envers le candidat sur l’utilisation de l’IA reste faible, malgré des obligations légales croissantes en matière de protection des données et de non-discrimination.
  5. La méthode constitue un puissant filtre culturel, attirant les candidats adeptes des nouvelles technologies et écartant les sceptiques.
  6. L’avenir du recrutement par IA réside dans des systèmes hybrides audités, où la machine assiste l’humain sans le remplacer, particulièrement pour la décision finale aux conséquences légales.

Questions fréquentes

L’utilisation de ChatGPT pour noter des entretiens est-elle légale ?

Cela dépend de la juridiction. En Europe, c’est une pratique à “haut risque” soumise à de strictes obligations. À New York, un audit annuel des biais est obligatoire. La légalité repose sur le respect de ces cadres, la non-discrimination et la protection des données personnelles.

Les candidats doivent-ils être informés que leur entretien est analysé par une IA ?

Aucune loi ne l’impose explicitement dans la plupart des pays, mais le principe de loyauté et les réglementations sur la protection des données (comme le RGPD) incitent fortement à une telle transparence. L’information est considérée comme une bonne pratique.

L’IA permet-elle vraiment d’éliminer les biais de recrutement ?

Non, pas automatiquement. Une IA entraînée sur des données historiques peut perpétuer ou amplifier les biais existants. Elle peut aussi en introduire de nouveaux, liés à l’analyse linguistique. Son rôle est de fournir un point de vue complémentaire, sous réserve d’un audit et d’un calibrage constants.

Quelle est la différence entre utiliser ChatGPT et un logiciel de recrutement dédié ?

Les logiciels dédiés (HireVue, Eightfold) sont conçus pour le contexte RH : ils incluent des fonctions d’audit, d’explication, d’archivage légal et de gestion du consentement. ChatGPT, utilisé en interface standard, est un outil générique sans ces garanties, offrant plus de flexibilité mais moins de sécurité juridique.

Qui est responsable en cas de décision discriminatoire prise sur la base d’une analyse par IA ?

L’employeur est tenu pour responsable en dernier ressort, même si le biais provient d’un outil tiers. Les régulateurs, comme l’EEOC aux États-Unis, considèrent que l’entreprise doit s’assurer de la conformité de l’ensemble de son processus de recrutement.

Conclusion

L’expérience d’Emergent cristallise les promesses et les écueils de l’IA dans le recrutement. La recherche d’objectivité via l’analyse textuelle se heurte à la réalité des biais linguistiques et à un cadre légal de plus en plus exigeant. La transparence envers les candidats et la robustesse des systèmes de conservation des données restent des points faibles majeurs. À court terme, l’adoption généralisée de ces outils semble inéluctable, mais leur pérennité dépendra de la capacité des entreprises à intégrer non seulement la performance algorithmique, mais aussi l’audit, l’explicabilité et une éthique pratique. Le modèle hybride, avec un humain comme décideur final, s’impose comme le compromis nécessaire pour équilibrer innovation, équité et conformité.

Prêt à transformer votre entreprise ?

Bénéficiez d'une consultation gratuite avec nos experts en IA.

Réserver un appel gratuit