Les équipes RH n’ont jamais été aussi bien équipées : les ATS se généralisent et l’IA s’impose désormais à chaque étape du recrutement, du tri des CV au matching et à la préqualification, jusqu’à parfois écarter des candidats à grande échelle.
C’est précisément ce que vient encadrer l’AI Act européen. À compter du 2 août 2026, les systèmes d’IA à haut risque devront respecter des exigences renforcées lorsqu’ils sont utilisés dans le recrutement, l’évaluation ou d’autres décisions liées au travail. En pratique, cela concerne les entreprises qui utilisent ces outils elles-mêmes, mais aussi celles qui les déploient via un prestataire externe, y compris hors de l’Union européenne.
L’AI Act est la première loi au monde qui encadre l’intelligence artificielle en fonction de ses risques, pour en sécuriser l’usage tout en permettant son développement. Elle entrera pleinement en vigueur à l’été 2026.
Son principe est simple : plus un système peut affecter les droits de l’homme, plus les obligations sont strictes.
Le recrutement est classé comme sensible parce qu’il peut produire des effets durables sur la carrière d’une personne. Un biais dans un modèle d’IA peut écarter systématiquement certains profils, reproduire des inégalités historiques ou survaloriser des signaux indirects qui n’ont rien à voir avec la performance réelle.
Le problème n’est donc pas seulement technique : il est aussi social, juridique et réputationnel.
Concrètement, toutes les entreprises qui déploient des outils intervenant dans des décisions liées au travail sont concernées. Même si la technologie vient d’un prestataire externe basé en dehors de l’Union européenne. À l’instar de la loi sur le devoir de vigilance, les « déployeurs » (ainsi désignés dans le texte officiel) sont considérés comme co-responsables.
Dans les faits, on parle par exemple des :
La législation impose aux “déployeurs” des obligations précises pour garantir traçabilité et équité, et s’assurer de rester en conformité.
Identifier précisément ce que fait l’outil (score des CV, tri, matching, recommandation), dans quel processus il intervient et avec quelles données il fonctionne.
À produire :
➥ une fiche outil (Notion, Confluence ou Google Docs) décrivant son rôle
➥ un schéma simple du processus de recrutement où il intervient
Objectif : comprendre et formaliser le périmètre exact d’automatisation.
Lister les données utilisées (CV, diplômes, expériences, mots-clés…) et les critères de classement ou de décision.
À produire :
Objectif : pouvoir expliquer sur quoi repose une décision automatisée.
Vérifier régulièrement que l’outil ne produit pas de différences injustifiées entre groupes de candidats.
À produire :
➥ rapports de tests (tableaux Excel ou outils d’audit data comme BigQuery ou Snowflake)Objectif : détecter et corriger les discriminations potentielles.
S’assurer qu’aucune décision finale ne soit entièrement automatisée et qu’un humain puisse valider, contester ou corriger les résultats de l’outil.
À produire :
➥ procédure RH interne (PDF ou note de process)
➥ preuve de validation humaine (logs ATS, workflows de validation dans Lever ou Greenhouse.)
Objectif : maintenir la responsabilité humaine sur les décisions de recrutement.
La bonne lecture de l’AI Act n’est pas “l’IA est interdite en recrutement”, mais “vous pouvez continuer d’utiliser l’IA à condition de la maîtriser”. Cela change sensiblement la posture des équipes RH : il ne s’agit plus seulement d’acheter un outil performant, mais de savoir piloter un système de décisions potentiellement sensibles.
En intégrant l’évaluation des risques, le registre des décisions, les tests de biais et une gouvernance humaine affirmée, vos ATS déploient pleinement leur potentiel. Les entreprises qui anticipent cette évolution réduisent leur risque réglementaire, mais aussi leur risque social et réputationnel.
Source : Règlement (UE) 2024/1689 (AI Act) *