Publié

La place de l’intelligence artificielle dans le recrutement

La place de l'intelligence artificielle dans le recrutement [Keystone - Gaetan Bally]
La place de l’intelligence artificielle dans le recrutement / La Matinale / 5 min. / le 13 octobre 2022
La pandémie a été un accélérateur pour les entretiens d’embauche en ligne. Désormais, des IA aident les recruteurs des grandes entreprises pour trier les dossiers de candidature. Alors que les biais des machines peuvent mener à des discriminations, le cadre légal est encore flou.

L’intelligence artificielle (IA) fait partie de notre quotidien. Dans les courriels, les applications bancaires, les trajets GPS et s’immisce désormais dans un domaine sensible: le recrutement.

Si les robots n’engagent pas les candidats, ces nouveaux logiciels permettent avant tout de faire un premier tri parmi les centaines de dossiers. Sur la base du CV, l’ordinateur sélectionne les personnes qui pourront avoir un entretien et rencontrer un humain.

Mais certains logiciels vont encore plus loin. Ils analysent le comportement. Imaginez: vous êtes chez vous, vous recevez un courriel de l’entreprise dans laquelle vous postulez. Elle vous donne un lien à insérer dans une application ou sur un site.

Et c’est le début d’un premier entretien. Les questions sont préenregistrées. Vous devez y répondre dans un temps imparti tout en vous filmant avec votre smartphone ou votre ordinateur. On peut s’entraîner, mais il n’y a qu’une seule prise.

En Suisse aussi

Les candidats vus depuis la position du recruteur dans l'application Hirevue (Image de présentation dans l'App Store) [Hirevue]
Les candidats vus depuis la position du recruteur dans l'application Hirevue (Image de présentation dans l'App Store) [Hirevue]

Vous parlez à votre écran. C’est à ce moment qu’intervient l’intelligence artificielle. Elle va vous décoder. Votre visage, vos expressions, vos paroles. Vous êtes évalué par l’ordinateur. C’est lui qui fera une recommandation au recruteur.

En Suisse, quelques grandes entreprises utilisent l’intelligence artificielle à un moment dans leur recrutement. Selon Schweiz am Wochenende, on trouve notamment Novartis, Siemens, Credit Suisse, La Poste ou Roche.

Avec la pandémie et le télétravail, l’entretien en ligne a pris son essor. Un des leaders sur ce marché, le logiciel Hirevue affirme que le temps de recrutement baisse de 90%.

Pour faire quoi?

Un gain énorme pour les ressources humaines qui peuvent se concentrer sur d’autres tâches. L’arrivée de l’intelligence artificielle dans le processus de recrutement parait inéluctable. Mais pas pour tout, selon Stéphane Haefliger, consultant en ressources humaines chez Vicario.

"Pour des éléments objectifs, normatifs, comme la maîtrise de l’allemand, un master universitaire, 10 ans dans un poste de direction, habiter dans un rayon géographique donnée, l’intelligence artificielle pourrait soutenir le recruteur dans le premier tri des dossiers".

En revanche, Stéphane Haefliger n’y croit pas pour les éléments d’évaluation. "Les traits de personnalité, cohérence du parcours, les compétences sociales, je ne pense pas que l’IA aujourd’hui est le bon outil pour suppléer le savoir-faire du recruteur professionnel".

Les candidats aussi doivent s’adapter à cette technologie. Ils partagent leurs expériences sur les forums. Se donnent des astuces. Les vidéos de coaching et les publicités pour les applications d’entraînement inondent les réseaux sociaux. Un véritable marché parallèle.

Un secteur à haut risque

Pourtant, ce nouveau marché est sensible. Très peu encadré. C’est dans ce cadre qu’une nouvelle loi new-yorkaise est très observée. Dès le 1er janvier, les entreprises de la ville ne pourront plus recruter un employé à l’aide de l’intelligence artificielle, à moins d’avoir été audité par un expert indépendant. Le candidat doit également être au courant qu’une intelligence artificielle est intégrée au processus.

La thématique est tellement sensible que l’Union Européenne l’a classée à "haut risque". Une vision qui peut sembler contre-instinctive. Dans un premier temps, on peut se dire que l’ordinateur est plus objectif qu’un être humain. Il va juger les gens sur leurs capacités et réduire les discriminations.

En réalité, aujourd’hui, la technologie est balbutiante. Les biais sont nombreux. Ils dépendent des personnes qui entraînent les ordinateurs, mais surtout des données brutes qui alimentent la machine.

Manque de transparence

"Tout dépend des données", explique Prisca Quadroni, avocate à Zurich. Elle conseille les entreprises qui souhaitent utiliser l'intelligence artificielle.

"Admettons qu’une société a fait passer généralement des personnes qui s’appellent Paul, Philippe, Géraldine, et n’a pas admis des Inaya ou Abdoul. La machine peut se dire que les Paul ou Géraldine sont de meilleurs candidats".

Et il ne suffit pas de retirer les noms. "Il y a énormément de préjugés qui se cachent dans d’autres données, comme l’éducation, le quartier où l’on vit. La machine va commencer à se dire qu’il y a une certaine similitude dans les données qu’elle reçoit. Et ainsi désigner les meilleurs candidats à partir de ces aspects biaisés".

En vidéo aussi, le même type de problème existe. Comment l’IA va analyser le visage d’un candidat qui a utilisé du botox, avec évidemment moins d’expression sur le visage? Ou une personne accidentée?

Peu de contrôle

La discrimination se cache dans les détails. A terme, ces problèmes peuvent être réglés. Mais pour cela, il faut savoir ce que fait la machine. Être capable d’expliquer comment elle arrive aux résultats. C’est pour cette raison que New York oblige les entreprises à faire vérifier les logiciels par un expert indépendant.

En Suisse, il y a des règles de droit du travail. Par exemple, la protection et le respect de la personnalité du travailleur qui s’applique déjà au moment de la candidature. "C’est encore peu clair sur la manière de procéder", estime Prisca Quadroni.

Ici, le candidat, et souvent le recruteur, ne savent même pas qu’il a pu y avoir une discrimination. Il n’y a pas d’obligation d’avoir une intelligence artificielle transparente. Ni d’obligation d’informer le candidat. Ce sont les axes de travail des lois en préparation au niveau européen.

La solution humaine

Un humain ne pourrait-il pas simplement vérifier le travail de l’ordinateur? C’est souvent présenté comme une bonne solution, rassurante, mais pas suffisante.

L’année dernière aux Pays-Bas, un scandale a éclaté. Des milliers de personnes ont été accusées à tort par le gouvernement de fraude aux allocations familiales. Avec son entraînement, la machine a jugé que les étrangers étaient des fraudeurs potentiels, plus que les Néérlandais.

Les allocations étaient suspendues durant l’enquête. Les fonctionnaires, eux, suivaient aveuglément la machine. Il s’agit donc aussi de former les humains et de rester critique. Cette expérience qui aujourd’hui nous fait freiner quand le GPS veut envoyer la voiture dans un lac.

Pascal Wassmer

Publié