Comment l’IA peut-elle changer le recrutement ? (partie 1)

Savez-vous qu’il faut évaluer en moyenne 100 candidatures pour réaliser une embauche ? C’est le résultat d’une étude menée par Lever, une société de San Francisco, basée sur les données récoltées de ses clients installés dans 40 pays.

Pour gérer toutes ces candidatures, les recruteurs utilisent des outils appelés Applicant Tracking System (ATS). Ils permettent d’organiser et centraliser les candidatures provenant de différents canaux (sourcing de candidats, cooptations, jobboards, site carrière, etc.) et de suivre l’avancement du processus de sélection. Mais les recruteurs ont toujours besoin d’évaluer des centaines de candidatures manuellement.

Nous allons donc voir ce que l’IA peut apporter aux recruteurs. Cet article explorera ce thème en se concentrant sur l’étape de tri entre la réception des candidatures et le premier contact. Pour ce faire, nous allons présenter les Applicant Tracking System (ATS) et les algorithmes qu’ils emploient pour faire un premier tri de candidats. Nous exposerons les limites de ces algorithmes et les pistes envisagées pour y remédier. À la fin de cet article, vous aurez une bonne compréhension des tenants et aboutissants de l’intégration d’algorithmes dans le recrutement.

Qu’est-ce qu’apporte un ATS ?

Aujourd’hui, un recruteur peut publier une annonce sur des jobboards (monster, indeed, etc.), le site carrière de l’entreprise et Linkedin. Il peut aussi être proactif et sourcer des candidats ou encore recevoir des suggestions de cabinets de recrutements ou de cooptations. Évaluer le plus de candidatures possible permet à l’entreprise d’augmenter la confiance dans son choix.

Pour aider les recruteurs à gérer toutes ces informations, il existe des outils logiciels appelés Applicant Tracking System (ATS). Un ATS va regrouper un ensemble de fonctionnalités nécessaires pour la gestion d’un processus de recrutement. Par exemple : la création et la multidiffusion des offres d’emploi, la centralisation de l’ensemble des candidatures reçues et le pilotage de l’avancement des processus de recrutement.

Les ATS représentent souvent un bon investissement pour les entreprises car ils permettent de gagner en efficacité dans les recrutements, ainsi que d’augmenter leur visibilité et celles de leurs offres à un coût relativement faible.

Un bon ATS doit permettre aux recruteurs, en prenant en charge la gestion des candidatures, de se concentrer sur l’interaction avec l’être humain, sa personnalité et ses compétences dans l’entreprise. 

Ainsi, un ATS capable de faire un premier tri dans les candidatures peut se révéler bien utile en permettant aux recruteurs d’identifier plus rapidement ceux qu’ils souhaitent contacter. Le bénéfice en temps dégagé peut servir à conduire des entretiens plus approfondis réduisant ainsi les chances de manquer le bon candidat. 

Le problème du keyword matching.

À l’heure actuelle, dans beaucoup de grandes entreprises, votre CV peut être refusé avant même de passer entre les mains d’un recruteur. Les ATS qui proposent de trier les candidatures pour le recruteur le font sur la base de la détection d’occurrences de mots-clés (keywords) fournis par ce dernier. En principe, c’est similaire à ce qu’un recruteur ferait pour effectuer un premier tri. 

Cependant, la rigidité de l’algorithme pose un problème. Des candidatures pouvant être jugées recevables par un recruteur peuvent être écartées par manque de mots-clés. Il suffit d’une faute d’orthographe, d’une formulation différente (e.g. Excel vs spreadsheet) ou d’une abréviation pour qu’un mot-clé ne soit pas reconnu par l’algorithme de l’ATS alors qu’il aurait été reconnu par un recruteur. Parfois, le CV ne peut simplement pas être lu car le format du fichier n’est pas pris en charge par l’algorithme. Mais ce n’est pas forcément une limitation problématique pour les entreprises.

En effet, les candidats proposés sont probablement de bons candidats et l’inverse n’est pas nécessairement vrai. Le système a beau ne pas être optimal, il permet de ne pas accepter de candidatures inappropriées. En termes statistiques, les algorithmes actuels de tri de candidatures maximisent la précision au détriment du rappel en s’assurant de sélectionner des vrais positifs quitte à faire de faux négatifs.

Néanmoins, deux arguments en font un problème pour l’entreprise. Premièrement, il est facile de contourner l’algorithme, il y a notamment des sites pour ça (e.g. jobscan). Généralement il suffit d’ajouter tout un tas de mots susceptibles d’être des mots-clés dans votre CV. Si l’imperfection des ATS pousse les candidats à ajouter des mot-clés dans leurs CVs, l’algorithme perd de son utilité et l’avantage économique qu’il procurait diminue.

Deuxièmement, et c’est sans doute celui qui devrait avoir le plus de poids, lorsque la situation financière d’un candidat dépend de l’obtention d’un travail, il est difficile de justifier d’un processus qui refuserait de bons candidats pour les raisons évoquées plus haut. Il est donc essentiel du point de vue éthique que les candidatures que l’algorithme écarte soient effectivement peu pertinentes.  

Petit aparté : En analysant la situation sous l’angle de la théorie des jeux, le problème s’apparente au dilemme du prisonnier avec plus que deux joueurs. Chaque candidat a le choix d’être honnête avec l’algorithme ou de ne pas l’être. Sachant que l’honnêteté le désavantage si d’autres candidats choisissent de ne pas l’être. Pour qu’aucun candidat ne regrette son choix, le seul équilibre de Nash pour le dilemme du prisonnier, c’est que chaque candidat choisisse de ne pas être honnête.

Ainsi, on peut voir qu’il peut être souhaitable de créer un système meilleur que la détection de mot-clés.

L’IA sera-t-elle la solution ?

Depuis quelques années, l’IA fait beaucoup parler d’elle. On ne compte plus le nombre de domaines dans lesquels elle est employée. Le champ de recherche associé à l’IA progresse rapidement et constamment. Nos idées sur les limites de ce qu’on peut faire automatiquement peuvent devenir obsolètes presque du jour au lendemain. 

Pour s’en convaincre, il suffit de prendre l’exemple d’Open AI qui, en 2020, a publié le modèle de langage GPT-3. Grâce à GPT-3, il est possible de générer automatiquement des articles de presse que les évaluateurs humains ont du mal à distinguer des articles écrits par des humains. Ce qui est plus intéressant dans notre cas, c’est sa capacité à analyser et synthétiser du texte sous forme de tableaux. Autrement dit, GPT-3 est capable, dans une certaine mesure, de structurer l’information. C’est-à-dire de traduire de l’information exploitable seulement par les humains en information exploitable par la machine. Certes, c’est un modèle de pointe inaccessible à l’heure actuelle, nécessitant 175Go de RAM et ne fonctionnant qu’en anglais mais il montre les progrès possibles dans la compréhension du langage naturel (Natural Language processing, NLP).

On voit alors qu’il peut être intéressant de se pencher sur l’état de l’art en NLP et tenter d’appliquer les dernières techniques de pointe à notre problème. Néanmoins, l’IA a beau représenter un progrès technique majeur, son histoire montre qu’il y a souvent des risques associés à son utilisation. 

Le danger des biais

En 2018, Amazon a développé, à titre expérimental selon Reuters, un algorithme d’apprentissage automatique capable d’automatiser ses recrutements. L’algorithme s’appuyait sur les recrutements effectués durant les dix dernières années chez Amazon. D’après Reuters, chez Amazon, 60% de la masse salariale est masculine, et la société refuse de dévoiler la part de femmes à des postes techniques, où elles sont d’ordinaire encore plus rares. L’algorithme pénalisait tout CV qui contenait le mot “femme” (par exemple “club de jeu échecs pour femme”) ou toute université/école non-mixte car ces termes sont moins représentés chez les employés d’Amazon. Il a donc été abandonné. Pour autant, le groupe n’a pas renoncé à trouver une formule qui pourrait le remplacer.

Cet exemple illustre un problème fondamental en apprentissage automatique : les biais. Une des forces de l’apprentissage automatique est de trouver des règles qui permettent de reproduire les associations, souvent faites par des humains, entre les paramètres d’entrée et les résultats. Dans l’exemple d’Amazon, les paramètres d’entrée sont les CVs et les résultats sont les décisions d’accepter la candidature ou non. Or le jeu de données est issu de décisions humaines à savoir les recrutements des dix dernières années. Et on sait que l’esprit humain possède des biais cognitifs notamment dans le domaine social et parfois des préjugés sociaux. Chaque recruteur fait des choix biaisés, à plus ou moins grand degré. Si une part significative des décisions est biaisée dans le même sens, le jeu de données sera biaisé. Si l’algorithme, une fois entraîné, est capable de reproduire les décisions des humains, alors il est possible qu’il exploite les biais présents dans le jeu de données pour y arriver.

Dans l’optique de trier les candidatures chez OCTO, deux biais communs en apprentissage automatique nous concernent :

  • Le biais d’échantillonnage. Le problème se situe dans les données utilisées pour entraîner l’algorithme. Ce type de biais apparaît lorsque le jeu de données n’est pas assez large ou simplement pas assez représentatif des données que l’algorithme doit traiter. Ici, il faut considérer deux échantillonnages : les candidatures et les recruteurs. Est-ce que les candidatures dont on dispose sont représentatives de l’ensemble des candidatures ? Est-ce que les recruteurs sont représentatifs de l’ensemble des recruteurs ?
  • Le biais dû aux préjugés. Il reflète un préjugé ou des stéréotypes existants dans ce qui a produit les données. Le biais est ainsi perpétué via l’algorithme. Ce cas peut être lié au précédent car il peut provenir du fait que les recruteurs qui produisent les données ne sont pas représentatifs de l’ensemble des recruteurs. 

En effet, chez OCTO, comme dans beaucoup d’entreprises de notre secteur, il existe une disparité assez marquée entre hommes et femmes parmi les consultants. 

En incluant le sexe de la personne dans les données servant à l’algorithme, il est possible que ce dernier exploite l’association entre hommes et consultants et qu’il recommande moins facilement une candidature venant d’une femme. 

Pour éviter ce biais, on pourrait naïvement se dire qu’il suffit d’éviter de donner explicitement le sexe de la personne ayant candidaté mais ce n’est pas aussi simple, comme en atteste l’exemple d’Amazon.

Conclusion

En fin de compte, la recherche d’optimisation des recrutements fait apparaître, entre autres, le besoin de pouvoir trier les candidatures automatiquement.

Les Applicant Tracking System (ATS), en plus d’automatiser des tâches avec peu de valeur ajoutée, tentent de pallier le problème en discriminant les candidatures sur la présence ou l’absence de mot-clés. Ce faisant, ils permettent à l’entreprise de gagner du temps qui peut être investi pour conduire des entretiens de meilleure qualité améliorant ainsi les chances de sélectionner le bon candidat.

Cependant les imperfections de cette approche encouragent la création de CV de mauvaise qualité et mènent à la nécessité de développer une solution plus élaborée et sûre.

L’intelligence artificielle, par sa progression rapide et sa large portée, est probablement capable, si ce n’est maintenant alors dans un futur proche, de trier les candidatures automatiquement. 

Néanmoins, l’emploi de l’IA entraîne aussi son lot de problèmes car il est facile de perpétuer et d’amplifier les biais présents dans les données d’entraînement.

Dans la seconde partie de cet article, nous vous présenterons nos idées pour améliorer le tri automatique des candidatures grâce à l’apprentissage automatique et nos stratégies pour limiter les biais et faire une IA éthique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Ce formulaire est protégé par Google Recaptcha