Article 2/4 de notre série sur le recrutement prédictif. Retrouvez l'article 1 ici.
Dans l'univers RH, le recrutement prédictif est présenté comme une solution de choix pour sécuriser ses embauches. La promesse est belle : utiliser la data et l'IA pour prédire le succès et dire adieu aux erreurs de casting.
Mais il s’agit de se poser la question qui dérange : et si l'outil, aussi puissant soit-il, se retournait contre nous ?
L'objectif n’étant pas de doucher l'enthousiasme mais de le rendre plus intelligent. Car connaître les limites d'un outil, c'est la seule façon de l'utiliser à son plein potentiel. Voici les 3 pièges les plus courants du recrutement prédictif, et comment ne pas y tomber.
C'est le risque le plus fondamental. Le principe de base de l'IA prédictive est d'apprendre de vos données passées pour prédire l'avenir. La question est donc simple : que se passe-t-il si vos données passées sont biaisées ?
La réponse est implacable : l'IA va apprendre, valider et même amplifier ces biais. Elle va les transformer en règles.
Exemple concret : si, historiquement, vos 10 meilleurs commerciaux sortent de la même école, l'IA pourrait conclure que ce diplôme est un critère de succès. Ce qui est d’ailleurs possible, mais qui n’enlève rien au potentiel des profils provenant d’autres écoles. Elle risque alors d'écarter systématiquement des profils au parcours atypique, même si leur potentiel est immense.
⇒ C'est le fameux principe du "Garbage in, Garbage out" (des données médiocres en entrée donnent des résultats médiocres en sortie).
Comment l'éviter ? En auditant vos données avant de brancher la machine et en travaillant avec des outils conçus pour détecter et corriger ces biais. La technologie ne doit pas être un miroir du passé, mais une fenêtre sur de nouveaux potentiels.
En cherchant à reproduire le profil de vos "top performeurs" actuels, le recrutement prédictif peut involontairement vous pousser à ne recruter que des clones. Vous cherchez à sécuriser la performance, mais vous risquez de tuer l'innovation.
Le danger : une entreprise performante est une entreprise où les idées et les perspectives se confrontent. En ne recrutant que des profils qui correspondent à un modèle pré-établi, vous sacrifiez la diversité de pensée. Le fameux "mouton à cinq pattes", ce profil atypique qui pourrait révolutionner un service, sera systématiquement filtré car il ne coche pas les cases du passé.
Comment l'éviter ? En utilisant l'IA comme un outil d'aide à la décision, et non comme un juge final. Le rôle du recruteur est crucial ici : c'est à lui de challenger les recommandations, d'analyser les profils "hors-normes" et de rappeler que les compétences nécessaires pour demain ne sont pas forcément celles qui ont fait le succès d'hier.
Certains outils d'IA donnent un "score de compatibilité" sans jamais expliquer le "pourquoi". C'est l'effet "boîte noire" : une décision est prise, mais personne ne peut en expliquer la logique.
Le problème : comment justifier le rejet d'un candidat si vous ne comprenez pas vous-même la raison ? Cela peut non seulement être frustrant, mais aussi juridiquement risqué. Surtout, cela déresponsabilise le recruteur, qui peut devenir un simple exécutant appliquant les décisions d'un algorithme.
Comment l'éviter ? En exigeant de la transparence et de "l'explicabilité". Un bon outil doit pouvoir vous dire : "Ce candidat a un score élevé car il démontre une forte capacité d'adaptation et de résolution de problèmes". Le recruteur garde ainsi le contrôle, comprend les recommandations et peut prendre une décision finale éclairée, en pleine conscience.
Le recrutement prédictif est une avancée formidable, mais il n'a rien de magique. C'est un outil puissant et, comme tout outil puissant, il doit être manié avec intelligence, prudence et esprit critique.
L'objectif final n'est pas de remplacer l'intelligence humaine, mais de l'augmenter. En connaissant ses limites, vous ne devenez pas plus sceptique, mais infiniment plus pertinent dans votre manière de l'utiliser.