Recrutement Prédictif : illusion ou réalité ?

Recrutement  Prédictif : illusion ou réalité ?

36 % des cdi sont rompus avant leur 1er anniversaire…  Quand on sait à quel point l’impact financier est élevé, sans même comptabiliser les coûts indirects (moral des collaborateurs, temps d’intégration et d’apprentissage, perte de productivité,…), on comprend pourquoi de nombreuses organisations cherchent à diminuer la marge d’erreur de leurs recrutements.

Dans les faits, les erreurs de recrutement demeurent une réalité tant les modes d’évaluation et les techniques utilisées pour pronostiquer les comportements professionnels et la réussite ne correspondent pas toujours à l’objectif. Il est par conséquent légitime pour une entreprise de s’interroger sur les méthodes permettant d’être plus efficace en matière de recrutement. L’accélération et la généralisation de la digitalisation des tests et son corolaire, l’analyse des datas pour en déterminer une norme de sélection, interpellent les organisations sur leur mode de recrutement.

Et si, le big data organisait la sélection ?

Il est confortable, pour un dirigeant ou un manager, d’imaginer son entreprise ou son équipe comme une armée de collaborateurs compétents, motivés, performants et surtout alignés sur les objectifs poursuivis.  Ils veulent, dans leurs pensées les plus avancées, s’appuyer sur ce qui « marche » afin de reproduire et dupliquer à l’infini les profils participants à la performance de leur organisation.

Le recrutement prédictif : règles, caractéristiques individuelles et liens statistiques

Commençons par définir la notion de prédictivité. L’analyse prédictive englobe une variété de techniques d’extraction de connaissances à partir de données qui analysent des faits présents et passés pour faire des hypothèses prédictives sur des événements futurs. Concrètement, les modèles capturent les relations entre de nombreux facteurs permettant l’évaluation de la performance afin d’orienter la prise de décision. Les spécialistes s’accordent sur un point publié dans la Harvard Business Review, en avril 2014 : « en matière de recrutement, les algorithmes font mieux que l’intuition ». 

Ces règles devraient expliquer pourquoi certains réussissent mieux que d’autres, correspondent aux compétences requises dans une organisation donnée et, donc, comment hiérarchiser les candidats. Ces règles seraient validées par la mise au jour de liens statistiques significatifs entre deux familles de données : des indicateurs de performance (rémunération, chiffre d’affaire, atteinte des objectifs, durée dans le poste,… etc.) et des caractéristiques individuelles (personnalité, motivation, aptitudes..). Dans un monde idéal, la prédictivité peut s’appliquer au recrutement.

Il convient toutefois de noter que toutes les méthodes d’évaluation n’ont pas le même coefficient de prédictivité. On ne pourra donc pas baser un recrutement sur la personnalité seule ou les aptitudes cognitives seules. Schmidt & Hunter (1998), Smith (2005), Pilbeam (2006) et bien d’autres chercheurs ont démontré que le coefficient de prédictivité de méthodes d’évaluation individuelles était souvent modéré. Toutefois, ce coefficient augmente de manière significative lorsque l’on combine différentes méthodes d’évaluation. A titre d’exemple, associer des mesures de personnalité et des mesures d’aptitudes montre un réel intérêt prédictif, ce d’autant que l’on s’adresse à des profils de poste complexes.

Algorithmes

 Source : Harvard Business Review 

Dans le monde réel, il existe plusieurs risques 

L’exercice ne doit pas se limiter à l’identification des caractéristiques individuelles corrélées à la performance. Il est impératif de poursuivre la réflexion afin de comprendre le sens, la pertinence et la robustesse de ces liens statistiques. Il ne suffit donc pas d’observer des phénomènes, il faut aussi en analyser les causes.

En effet, la légitimité de la norme reposera sur la part de vérité qu’elle contient. Quelle valeur accorder à une norme qui base la « vérité » de son diagnostic final à la seule vue de sa vérification statistique ? L’instrumentation deviendrait alors une fin en soi, une base de décision incontestable permettant de rallier tous les avis divergents. Faut-il considérer par exemple une corrélation entre la couleur des yeux et la mention au bac ?

Par ailleurs, il faut s’interroger sur les données interindividuelles analysées. Il existe des caractéristiques qui expliquent directement des différences de performances. Certains individus se distinguent par des comportements vertueux qui créent réellement de la valeur. Ils sont capables de produire des idées pertinentes même si elles sont innovantes ou inattendues, de modifier les pratiques pour les ajuster aux contraintes des transformations utiles pour l’organisation.  Ces différences sont bien des capacités productives qui méritent d’être prises en compte.

Les caractéristiques cognitives (aptitudes, schémas cognitifs), qui déterminent la capacité à résoudre des problèmes en contexte, font clairement partie des capacités productives. Elles interviennent dans toutes les tâches ou activités professionnelles pour être efficaces.

Les compétences techniques et les connaissances acquises transformées en compétences utiles pour l’organisation comme la maîtrise de techniques ou d’outils, en font également partie. Ce sont bien celles-là qu’il convient d’identifier et d’ériger en règles de sélection.

Faut-il être dans la norme ou bien être différent pour créer de la valeur ?

Le lien entre un individu et une norme ne génère pas automatiquement de la valeur. Il ne fait que valider les croyances, les stéréotypes et les codes qui fixent la culture de l’entreprise. La tentation est grande alors, de transformer le big data en usine à clones et de limiter sa compréhension à une norme. Stéphanie Denis, vice-présidente d’A Compétence Egale pose d’ailleurs parfaitement cette question. De plus, cette norme construite à partir des données de notre rétroviseur est-elle adaptée aux exigences de l’organisation, des transformations utiles pour s’adapter à son marché, des évolutions et du futur de l’entreprise ? Tout l’enjeu de l’instrumentation et de l’analyse des données est de distinguer les variables utiles à la performance, entre celles qui sont réellement des capacités productives et celles qui ne sont que le reflet des normes.

CTA_DemandeRDV

 

Quelques pistes de réflexion afin de ne pas s’enfermer dans ses certitudes

Les règles de sélection reposent-elles sur les données ou sur l’interprétation théorique des liens entre les données ?

Quelle valeur accorder à une norme qui base la « vérité » de son diagnostic final à la seule vue de sa vérification statistique ? Car lien statistique ne signifie pas causalité. Le logiciel de traitement de données n’est pas sensible au ridicule, même lorsqu’il affirme que le lien entre un statut et la possession d’une Rolex est corrélée à la performance.

Les règles de sélection imposent-elles une logique simpliste et classificatoire ?

 L’effet magique des données pourrait permettre d’attribuer à tout candidat un label de qualité binaire (« bon » ou « mauvais ») sans considérer l’échelle et la complexité qui va des uns aux autres et sans même adopter des principes de validation des hypothèses.

Les règles de sélection sont-elles inattendues ou valident-elles le sens commun pré-existant ?

Il paraît ici important de s’interroger sur les conclusions. Interpellent-elles l’organisation sur les ressources participant à la performance en mettant en exergue des critères nouveaux ? Ou bien, les conclusions ré-affirment-elles les clichés anciens diffusés dans l’organisation comme un miroir du construit des codes en vigueur ?

« l’essentiel n’est pas dans l’instrument mais bien dans ses principes de construction… »

 

Il semble nécessaire de poser le débat pour mieux appréhender ce qui est de l’ordre du potentiel réel à occuper un périmètre de responsabilité ou de la capacité à respecter des normes de fonctionnement.

Les outils et la manipulation des datas portent en eux tous les repliements possibles et peuvent devenir de redoutables instruments de pouvoir démiurgique sur la destinée des collaborateurs de l’entreprise. C’est pourquoi la question de la finalité de l’acte d’évaluer et de gérer se doit d’être posée dans ses dimensions éthique et politique. Le pouvoir de la norme relève de la conception que se font les dirigeants et les gestionnaires de leur propre pouvoir et de la façon dont ils l’exercent. Il faut être vigilant pour ne pas balancer dans une vision étroite de la norme et dans une logique instrumentale que propose le big data.

En définitive, l’essentiel n’est pas dans l’instrument mais bien dans ses principes de construction, l’esprit et la pratique concrète de son utilisation. Seuls leviers efficaces dans la conduite humanisée des organisations. Rappelons en conclusion qu’une des méthodes les plus pertinente reste l’entretien structuré.

Dominique Duquesnoy, Directeur Développement France, Performanse, Alexandra Didry, Responsable R&D, Performanse et Samuel Héron, Consultant chargé d’affaires, Performanse.

 

Poster le commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Share This