Points clés

  • Étude IEFH Belgique 2026 : 75 % des recruteurs utilisent l’IA à au moins une étape du processus
  • Paradoxe : l’IA, perçue comme neutre, reproduit et amplifie les stéréotypes de genre
  • Variables indirectes : les algorithmes détectent le genre via les prénoms, les loisirs et le vocabulaire
  • Pénalisation mesurée : les femmes ont 12 % de chances en moins de progresser dans le processus à CV équivalent
  • Risque systémique : renforcement des inégalités existantes à l’échelle industrielle
  • AI Act européen : le recrutement par IA classé « haut risque », avec amendes jusqu’à 30 millions d’euros

L’Institut pour l’égalité des femmes et des hommes (IEFH) en Belgique révèle un paradoxe préoccupant. Alors que 75 % des recruteurs utilisent désormais l’intelligence artificielle dans leur processus d’embauche, ces outils perçus comme objectifs amplifient en réalité les biais de genre. Les algorithmes détectent indirectement le sexe des candidats à travers les prénoms et les centres d’intérêt, pénalisant les femmes avec un taux de rejet 12 % supérieur à celui des hommes à qualifications identiques. Le risque : reproduire les inégalités existantes à une échelle sans précédent.

Que révèle exactement l’étude belge ?

L’IEFH a analysé plus de 250 algorithmes de recrutement entraînés sur des données historiques d’embauche couvrant la période 2010-2020, saturées de biais de genre. Les modèles ont appris à associer les intitulés de type « assistante ingénieur » aux femmes dans des rôles de support, et les hommes aux rôles de direction. Les variables indirectes sont les principales responsables : les prénoms féminins (Jessica, Marie) sont corrélés à un rejet plus fréquent que les prénoms masculins (Pierre, Jean) à qualifications identiques. Les loisirs agissent également comme marqueurs : yoga et danse pénalisent le profil, tandis que sports de compétition et jeux vidéo le favorisent. Impact chiffré : les femmes ont 12 % de chances en moins de passer à l’étape suivante du processus, même avec un CV strictement équivalent à celui d’un homme.

Comment les entreprises déploient l’IA dans le recrutement en 2026

Le processus typique suit cinq étapes : téléversement du CV, analyse automatique par l’IA, notation automatique du profil, classement des candidats, puis présélection humaine. Le problème se situe à l’étape de notation : si l’algorithme est biaisé, le recruteur humain a tendance à valider le biais de la machine (« le système le suggère, donc c’est crédible »). Seules 20 % des entreprises belges auditent leurs algorithmes de recrutement pour détecter les biais de genre. Les 80 % restants font fonctionner leur IA de recrutement en boîte noire, sans aucun contrôle.

Variables indirectes : comment l’IA détecte le genre sans le lire

Les modèles non supervisés apprennent des corrélations problématiques dans les données historiques. Par exemple, si le jeu de données d’embauche montre que 47 % des femmes occupent des postes en ressources humaines et 63 % des hommes des postes en ingénierie, le modèle apprend à associer « coordination d’équipe » à un profil féminin et « architecture système » à un profil masculin. Les loisirs fonctionnent de la même manière : yoga, pilates et danse sont corrélés aux profils féminins et entraînent une notation pénalisante, tandis que jeux vidéo et football débouchent sur une bonification. L’algorithme ne lit jamais le champ « genre », mais construit des substituts statistiques redoutablement efficaces.

Les quatre recommandations de l’étude belge

Premièrement, un audit régulier de l’équité des algorithmes, rendu obligatoire chaque année pour les entreprises de plus de 250 salariés. Deuxièmement, une diversification des données d’entraînement, avec une parité hommes-femmes dans les jeux de données de pré-entraînement. Troisièmement, la transparence sur les facteurs de décision : expliquer pourquoi un candidat est rejeté (« il manque trois ans d’expérience ») plutôt que de s’appuyer sur un schéma statistique invisible. Quatrièmement, une intervention humaine obligatoire : tout rejet algorithmique doit être validé par un recruteur avant notification au candidat.

Quel impact réglementaire avec l’AI Act européen ?

Le règlement européen sur l’IA classe le recrutement par intelligence artificielle dans la catégorie « haut risque » (article 6). Les systèmes concernés doivent respecter des exigences de conformité légale, de documentation, d’audit des biais et de transparence. La Belgique fait figure de pionnière dans la mise en œuvre. Les sanctions prévues atteignent 30 millions d’euros ou 6 % du chiffre d’affaires mondial pour les violations. Les entreprises qui utilisent une IA de recrutement non auditée s’exposent à des risques juridiques importants dès 2026-2027.

FAQ

Ce problème de biais est-il limité à la Belgique ?

Non, le phénomène est mondial. Aux États-Unis, la commission EEOC a enquêté sur les biais de l’algorithme de recrutement d’Amazon dès 2019. Le Canada a restreint l’usage d’outils similaires en 2022. L’étude belge se distingue par sa rigueur méthodologique et son caractère systématique, mais Amazon, Google et IBM ont tous reconnu l’existence de biais dans leurs algorithmes et lancé des efforts de correction.

Existe-t-il des algorithmes sans biais en 2026 ?

Pas encore de solution parfaite. Les techniques de débiaisage actuelles incluent l’apprentissage équitable (imposer des parités entre groupes), l’optimisation des seuils de décision par groupe, et le débiaisage par réseau antagoniste (entraîner un contre-modèle qui détecte et minimise les biais). Aucune de ces techniques ne garantit un biais zéro. La meilleure approche reste la combinaison d’une intervention humaine systématique et d’une transparence continue sur les critères de décision.

À suivre : la publication du rapport complet de l’IEFH en avril 2026, les premiers litiges pour discrimination algorithmique devant la justice belge, les évolutions de l’AI Act sur les obligations de recrutement d’ici 2027, et l’émergence de certifications « IA équitable » pour les plateformes de recrutement.

Sources : IEFH Belgique, La Libre Belgique, Talma AI. Maillage : Anthropic alerte sur la surveillance par IA, Agents IA autonomes : un marché de 12 milliards.