Aller au contenu principal

Et si vos émotions étaient scrutées au boulot ?

  • A l’heure des technologies fulgurantes, de l’intelligence artificielle et de l’hyper-information, des logiciels capables de lire vos sentiments sont en train de voir le jour. Et il se vendent comme des petits pains dans les entreprises lors de procédures de recrutement. Attention, danger ?

2
minutes
de lecture

Et si vos émotions étaient scrutées au boulot ?

2 min. de lecture
lun 30/12/2019 - 10:58

Tic-tac, tic-tac, tic-tac : le compte à rebours est lancé, la nouvelle année arrive et annonce avec elle une nouvelle décennie. A l’heure des technologies fulgurantes, de l’intelligence artificielle et de l’hyper-information, des logiciels capables de lire vos sentiments sont en train de voir le jour. Et il se vendent comme des petits pains dans les entreprises lors de procédures de recrutement, et auprès les gouvernements pour identifier de potentielles menaces, au point de devenir un véritable marché, lourd de plusieurs dizaines de milliards de dollars.

Pouvoir détecter les micro-expressions d’un visage, les interpréter et en tirer des conclusions, notamment à propos des émotions et des intentions des personnes scannées : c’est l’une des promesses de plusieurs compagnies qui développent des intelligences artificielles. Le concept se base notamment sur les travaux des psychologues Paul Ekman et Wallace Friesen.

Dans les années 1970, ils avaient développé des techniques pour lire les émotions d’après des expressions du visage. Ils ont établi un véritable catalogue qui reprenait toutes les « micro-expressions », une liste exhaustive des mouvement musculaires du visage, à peine détectables à l’œil nu, voire qui nécessitent carrément l’utilisation d’électrodes sur les zones du visage analysées. En combinant ces mouvements, ils déduisent des émotions.

La méthode fascine encore aujourd’hui les producteurs de séries télévisées comme The Mentalist et Lie to Me. Mais si le monde fictif du cinéma peut y voir une jolie source d’histoires efficaces auprès du public, le point de vue de la science est nettement plus critique. Parce que si des signes que l’on tente de dissimuler mais qui sont repérés peuvent en effet permettre de dévoiler certaines émotions, les interprétations possibles sont trop vastes, selon la personne, sa culture, son profil émotionnel. Et puis il reste difficile de distinguer les vraies émotions de celles qui sont manipulées, notamment dans des conditions scientifiques rigoureuses. Ce n’est donc pas du tout une technique infaillible.

Le danger des dérives

Même si de gros doutes continuent de planer sur la validité des conclusions de ce type de système, ça se vend, et ça se vend bien. Résultat : les travers et conséquences parfois désastreuses se découvrent en temps réel d’utilisation. Des dérives que l’institut Al Now, rattaché à l’université de New York, essaie de prévenir, en se penchant sur les impacts des intelligences artificielles sur la société, et sur les mesures qu’il faudrait prendre pour encadrer ce type d’avancées technologiques.

Dans son rapport de cette année, Al Now avertit : « Compte tenu des fondations scientifiques contestées de la reconnaissance des émotions qui prétend détecter des choses telles que la personnalité - les émotions, la santé mentale et d’autres états intérieurs - elle ne devrait pas jouer un rôle dans les décisions importantes concernant la vie humaine. Les gouvernements et les entreprises devraient cesser toute utilisation de la reconnaissance faciale dans les contextes sociaux et politiques sensibles, jusqu’à ce que les risques soient entièrement étudiés et que des réglementations adéquates soient mises en place. En 2019, il y a eu une expansion rapide de la reconnaissance faciale dans de nombreux domaines. Pourtant, il est de plus en plus évident que cette technologie cause de graves dommages, le plus souvent sur les gens de couleur et les pauvres. »

Les robots qui lisent en nous, les médiums et les entreprises trop curieuses n’ont qu’à bien se tenir : les scientifiques veillent au grain.