Aller au contenu principal

Faut-il avoir peur de l’intelligence artificielle dans le recrutement ?

  • Des logiciels se chargent parfois de la sélection des CV lors des recrutements. Quels avantages, quels risques ? L’avis d’Hugues Bersini, professeur d’Informatique et directeur du Laboratoire d’intelligence artificielle à l’ULB. 

2
minutes
de lecture

Faut-il avoir peur de l’intelligence artificielle dans le recrutement ?

2 min. de lecture
sam 01/06/2019 - 11:35

L’intelligence artificielle modifie progressivement l’exercice de la plupart des professions. Les ressources humaines n’échappent pas à la règle. Nous sommes encore loin de nous faire recruter par des robots mais le rôle joué par les logiciels dans le processus grandit. Avec des conséquences positives mais aussi négatives, comme nous l’explique Hugues Bersini, professeur d’Informatique et directeur du Laboratoire d’intelligence artificielle à l’ULB.  

L’automatisation semble inéluctable. Pourquoi ? 

Quand on compare les décisions prises par des logiciels et celles prises par des humains, dans les secteurs où on peut le faire, en général les logiciels fonctionnent mieux que les humains. Ils sont plus fiables. On l’a constaté dans des situations de justice ou des situations médicales. Les logiciels se trompent moins parce qu’ils sont plus froids, ils sont moins emprunts d’émotions et de subjectivité. 

Dans certains cas, les conséquences sont bonnes mais parfois c’est un peu plus discutable. Aux Etats-Unis par exemple, ce sont des logiciels qui décident de la libération des prisonniers en sous-pesant le risque de récidive. S’il n’y a plus d’humain avec une certaine marge d’appréciation, ça peut faire pire que mieux. 

A quel point les ressources humaines sont-elles concernées par le changement ?  

C’est encore loin d’être le cas partout mais le premier scan, le premier filtre, c’est parfois déjà un logiciel qui l’exerce. A la Commission européenne par exemple, beaucoup de candidatures sont déjà balayées d’office par des logiciels. Les humains ne vont se concentrer que sur quelques dossiers.  

Comment va évoluer la profession ? 

Comme dans tous les secteurs, les personnes en charge des décisions vont devoir accepter de se reposer sur des logiciels pour les aider à prendre ces décisions. Ça implique de bien comprendre ces logiciels et ce qui en ressort, de les intégrer, de savoir quand vous devez reprendre la main. Ce n’est pas toujours si facile. Il va falloir apprendre à répartir les décisions et à accepter que l’humain ait toujours le dernier mot. C’est un peu comme les voitures autonomes. 

Mais si on sait que les logiciels prennent de meilleures décisions, ça sera très difficile pour les humains, même s’ils restent décideurs en dernier ressort, de contrer la décision prise par le logiciel. Il va falloir pouvoir le justifier. Sinon, ça pourrait aussi servir de base pour un recours.  

Si on se place du point de vue des candidats maintenant, quel est l’impact de l’IA dans le processus de recrutement ? 

Si les candidats saven que c’est un logiciel qui les sélectionne, beaucoup vont s’auto-censurer en se disant que leur dossier ne correspond pas à l’offre. Jusqu’ici, même s’ils savaient qu’ils avaient peu de chances, ils pouvaient imaginer qu’un humain aurait été sensibilisé par une lettre de candidature ou autre. Avec le logiciel, vu que les critères sont très objectivés, ce n’est pas le cas. On a vu ça avec parcoursup en France (système de sélection des candidats à l’entrée dans le secondaire, ndlr) ou le décret inscription en Fédération Wallonie-Bruxelles. 

Quel est le risque avec l’automatisation des processus de sélection ? 

L’automatisation crée de l’uniformisation et amplifie des situations qui étaient préexistantes. Ça peut aider à lutter contre la discrimination mais la diversité des profils est menacée. Il sera très difficile de prendre des chemins de traverse.  

Les gens ont mille fois raison d’avoir peur de tout ça. Mais une fois qu’on a compris le caractère efficace des algorithmes, on peut choisir de les faire fonctionner différemment. On peut par exemple ajouter une ou deux variables plus aléatoires pour satisfaire à de meilleurs objectifs. C’est à nous d’écrire ces algorithmes. 

Je travaille par exemple sur un projet appelé Citycode. On va faire l’expérience avec le décret inscriptions pour que les citoyens participent à l’écriture de cet algorithme, mais d’abord il faut qu’ils comprennent. Il ne faut pas apprendre à coder mais plutôt apprendre la logique algorithmique. Ça, c’est à la portée de toute personne avec un minimum de raisonnement logique. Il ne faut pas être informaticien. 

 

Retrouvez-nous aussi sur la page Facebook de Génération Le Soir