Conseils & Actualité sur l'emploi en France

AI Act : quel impact sur le recrutement ?

Rédigé par Clémence de La Blanchardière | 20 avr. 2026 09:30:00

AI Act : quel impact sur le recrutement ?

Les équipes RH n’ont jamais été aussi bien équipées : les ATS se généralisent et l’IA s’impose désormais à chaque étape du recrutement, du tri des CV au matching et à la préqualification, jusqu’à parfois écarter des candidats à grande échelle.

C’est précisément ce que vient encadrer l’AI Act européen. À compter du 2 août 2026, les systèmes d’IA à haut risque devront respecter des exigences renforcées lorsqu’ils sont utilisés dans le recrutement, l’évaluation ou d’autres décisions liées au travail. En pratique, cela concerne les entreprises qui utilisent ces outils elles-mêmes, mais aussi celles qui les déploient via un prestataire externe, y compris hors de l’Union européenne.

L’AI Act : c’est quoi ?

L’AI Act est la première loi au monde qui encadre l’intelligence artificielle en fonction de ses risques, pour en sécuriser l’usage tout en permettant son développement. Elle entrera pleinement en vigueur à l’été 2026.

Son principe est simple : plus un système peut affecter les droits de l’homme, plus les obligations sont strictes.

Le recrutement est classé comme sensible parce qu’il peut produire des effets durables sur la carrière d’une personne. Un biais dans un modèle d’IA peut écarter systématiquement certains profils, reproduire des inégalités historiques ou survaloriser des signaux indirects qui n’ont rien à voir avec la performance réelle.

Le problème n’est donc pas seulement technique : il est aussi social, juridique et réputationnel.

Quels outils RH sont concernés ?

Concrètement, toutes les entreprises qui déploient des outils intervenant dans des décisions liées au travail sont concernées. Même si la technologie vient d’un prestataire externe basé en dehors de l’Union européenne. À l’instar de la loi sur le devoir de vigilance, les « déployeurs » (ainsi désignés dans le texte officiel) sont considérés comme co-responsables.

Dans les faits, on parle par exemple des :

  • ➥ ATS qui attribuent automatiquement un score aux CV ;
  • ➥ algorithmes de matching qui hiérarchisent les candidatures ;
  • ➥ ciblages d’offres vers des groupes spécifiques (par exemple, selon l’endroit où ils ont fait leurs études, les entreprises où ils ont travaillé, ainsi que leur domicile)
  • ➥ chatbots ou outils intelligents de préqualification.

Quatre réflexes à adopter

La législation impose aux déployeursdes obligations précises pour garantir traçabilité et équité, et s’assurer de rester en conformité.

1. Cartographier l’outil et son usage

Identifier précisément ce que fait l’outil (score des CV, tri, matching, recommandation), dans quel processus il intervient et avec quelles données il fonctionne.

À produire :

➥ une fiche outil (Notion, Confluence ou Google Docs) décrivant son rôle
➥ un schéma simple du processus de recrutement où il intervient

Objectif : comprendre et formaliser le périmètre exact d’automatisation.

2. Documenter les données et les critères utilisés

Lister les données utilisées (CV, diplômes, expériences, mots-clés…) et les critères de classement ou de décision.

À produire :

  • une documentation technique fournie par le prestataire (ou reconstituée si nécessaire)
  • un registre interne des variables utilisées et de leur rôle

Objectif : pouvoir expliquer sur quoi repose une décision automatisée.

3. Tester et tracer les biais

Vérifier régulièrement que l’outil ne produit pas de différences injustifiées entre groupes de candidats.

À produire :

rapports de tests (tableaux Excel ou outils d’audit data comme BigQuery ou Snowflake)
historiques des campagnes de tests et résultats comparatifs

Objectif : détecter et corriger les discriminations potentielles.

4. Encadrer la décision humaine

S’assurer qu’aucune décision finale ne soit entièrement automatisée et qu’un humain puisse valider, contester ou corriger les résultats de l’outil.

À produire :

procédure RH interne (PDF ou note de process)
preuve de validation humaine (logs ATS, workflows de validation dans Lever ou Greenhouse.)

Objectif : maintenir la responsabilité humaine sur les décisions de recrutement.

Anticiper l’AI Act : maîtriser l’IA pour recruter en conformité

La bonne lecture de l’AI Act n’est pas “l’IA est interdite en recrutement”, mais “vous pouvez continuer d’utiliser l’IA à condition de la maîtriser”. Cela change sensiblement la posture des équipes RH : il ne s’agit plus seulement d’acheter un outil performant, mais de savoir piloter un système de décisions potentiellement sensibles.

En intégrant l’évaluation des risques, le registre des décisions, les tests de biais et une gouvernance humaine affirmée, vos ATS déploient pleinement leur potentiel. Les entreprises qui anticipent cette évolution réduisent leur risque réglementaire, mais aussi leur risque social et réputationnel.

Source : Règlement (UE) 2024/1689 (AI Act) *