Interview Hilke Schellmann: Et si l’IA ne supprimait pas votre emploi, mais vous empêchait de trouver du travail?
Nous savons que l’IA commet des erreurs. Mais quel serait l’impact si l’IA était déployée dans les RH? La mauvaise personne se verrait-elle confier l’emploi? Ou pire encore, la bonne personne ne serait pas choisie.
Si les ‘ressources humaines’ sont évidemment une question de personnes, cela ne signifie pas pour autant que l’intelligence artificielle en soit exclue. Que du contraire même, puisque l’IA s’impose en fait largement dans les RH. House of HR a d’ailleurs organisé récemment un congrès sur l’e-recrutement à Amsterdam, l’occasion pour Data News de s’entretenir avec Hilke Schellmann qui a tenu à insister auprès du public de responsables RH, recruteurs et professionnels des RH pour qu’il analyse en profondeur les algorithmes de l’IA plutôt que de se lancer tête baissée dans l’aventure IA. Cette journaliste d’enquête et professeure en journalisme à l’Université de New York a d’ailleurs rédigé un ouvrage intitulé fort à propos The Algorithm.
L’ouvrage explique que l’IA induit presque systématiquement une discrimination vis-à-vis notamment des femmes et des non-blancs dans les processus de recrutement. Comment en est-on arrivé là ?
Hilke Schellmann: L’histoire commence en 2017-2018 avec ce que j’appelle la première vague de l’IA. C’est une période durant laquelle non seulement des start-up, mais aussi de plus grandes entreprises développent toutes sortes de logiciels destinés surtout à définir un score sur tout et sur chacun. Et qui étaient surtout extrêmement convaincants dans l’idée qu’ils s’appuyaient sur de véritables éléments scientifiques. Même si, comme moi, vous étiez à l’époque sceptique sur la pertinence d’un tel score, vous finissiez très rapidement par avoir le sentiment qu’il y avait vraiment quelque chose derrière ce score. Que des critères permettaient de déterminer pourquoi un tel score de 37% et non pas 87%. Entre-temps, nous savons que bon nombre de ces outils n’avaient pas la moindre valeur scientifique. J’ai rencontré de nombreux psychologues et scientifiques et je peux désormais affirmer sereinement que pour l’analyse des expressions du visage ou de l’intonation de la voix par exemple, il n’y avait rien derrière.
Mais entre-temps, nous sommes 6 ans plus tard et, selon vous, cette IA pseudo-scientifique serait pourtant bel et bien utilisée à grande échelle dans les RH ?
Schellmann: Eh oui, en 2024, de nombreux recruteurs tentent de collecter des données sur des candidats sans avoir la moindre garantie qu’il s’agit là de données pertinentes et exploitables. Je pense que l’idée sous-jacente est souvent que ce que nous sommes, ce qui nous fait avancer, notre moi intérieur, est également visible à l’extérieur. Je peux le voir aux expressions de votre visage. Ou à votre écriture, ce qui était autrefois un franc succès en France avec le recours à des graphologues. Cette même idée était par le passé et parfois aussi encore appliquée aujourd’hui à l’analyse de dirigeants et de leur personnalité. Voire également au contrôle des demandeurs d’emploi. Avec en filigrane cette même impression que l’idée est séduisante.
Bref, pas question d’y accorder la moindre importance ?
Schellmann: Vous savez, l’un des problèmes est que nous disposons désormais de la technologie pour collecter très rapidement l’ensemble des signaux. Un ordinateur est en fait très performant dans l’enregistrement des expressions de mon visage ou de mon écriture. Les possibilités technologiques permettent également de contrôler littéralement tout ce que vous faites sur votre clavier. Mais c’est dans l’analyse de la signification que tout se plante à chaque fois : en fait, il n’y a souvent pas de science exacte qui puisse aider. Prenez les expressions du visage. Un logiciel peut reconnaître que j’ai un rire qui est au-delà de la moyenne. Mais est-ce que cela signifie que je suis heureuse ? Peut-être suis-je en train de surcompenser et suis-je désespérée. Ou est-ce que je ris parce que je suis stressée ? En d’autres termes, la question qu’il faut se poser est : les expressions du visage sont-elles en fait pertinentes lors d’une interview d’embauche ? Ce n’est pas parce que quelque chose est mesurable que c’est aussi utilisable.
« Essayez d’ouvrir la ‘boîte noire’ du fournisseur. »
Vous avez mené énormément de recherches sur les algorithmes utilisés par les outils d’AI en RH. Vous dénoncez à cet égard le fait que de très nombreux fournisseurs ne savent pas eux-mêmes ce qui se passe dans leur ‘boîte noire’.
Schellmann: Absolument. Lorsque vous posez la question, vous découvrez aussi souvent que des composants ou des librairies sont utilisées à tort et à travers. Ou comme me l’a récemment dit un fournisseur : ‘Pour telle analyse de mots, nous avons trouvé une librairie en Python et on l’a tout simplement prise.’ Et lorsque vous commencez à approfondir le sujet, vous constatez que ce fournisseur n’a pas la moindre idée de la manière dont a été constituée cette librairie. Si des développeurs sont incapables de vous dire comment fonctionne tel scoring, c’est que vous avez affaire à un logiciel douteux et susceptible d’être tout simplement dangereux.
Les vendeurs sont-ils intentionnellement dans l’erreur ou est-ce de l’ignorance ?
Schellmann: Je pense que le problème est que nombre d’entre eux ont peut-être un bagage de scientifique de la donnée. La corrélation paraît souvent faire sens. Vous vous trouvez avec des mégadonnées et des millions de points de données, et vous trouvez une corrélation, ce qui peut en soi permettre de trouver une signification. Je pense que la causalité n’est pas suffisamment remise en question. Ainsi, les résultats sont-ils liés de manière causale au fait que vous soyez bon dans votre travail ? Saviez-vous par exemple qu’aux États-Unis, on a recours à des ‘gamified assessments’. Il existe ainsi un jeu dans lequel le candidat doit souffler dans un ballon et appuyer sur la barre d’espacement. En faisant crever ce ballon, on gagne de l’argent. Crever un ballon très gonflé permet de gagner encore plus d’argent. Avec le risque que ce ballon n’explose et que l’on ne gagne rien. Un tel jeu permet de savoir si la personne aime prendre des risques. Mais que faut-il en conclure dans l’environnement de travail ? Que j’aime prendre des risques au jeu, mais que je ne ferais certainement pas dans le contexte professionnel ? La question qu’il faut donc se poser est de savoir s’il existe bel et bien une corrélation.
D’un autre côté, vous ne pouvez pas reprocher aux recruteurs de chercher leur salut dans l’IA et les logiciels susceptibles de faciliter la sélection de candidats ?
Schellmann: C’est parfaitement compréhensible et je n’ai d’ailleurs rien contre la technologie. Mais la technologie ne doit pas discriminer et être éthiquement responsable. Or les risques sont bel et bien présents. C’est d’ailleurs ce que mes recherches démontrent. C’est ainsi que nous avons découvert qu’aux États-Unis, il est préférable de ne pas mentionner ‘solftball’ comme loisir sur son curriculum vitae, mais plutôt ‘baseball’. La possibilité de décrocher un emploi si le ‘softball’ est votre hobby est en effet moindre, et nous l’avons prouvé dans les faits. L’IA qui se charge de l’analyse des CV a été entraînée sur des données génériques qui ne sont pas forcément liées aux compétences nécessaires pour exercer telle ou telle tâche. Même si le fait que vous soyez joueur de softball ou de baseball ne devrait pas être important, le score est influencé par cet élément. Dès lors, rien que cette précision risque de vous faire perdre l’emploi, alors que ce loisir n’a rien à voir avec le contenu du travail. En fait, il s’agit même d’une discrimination sur le genre puisqu’outre-Atlantique, le softball est surtout considéré comme un sport de filles.
Faut-il estimer que c’est tout bonnement dramatique ?
Schellmann: C’est effectivement le cas. Le cas du loisir n’est qu’un exemple parmi d’autres. Il en va d’ailleurs de même pour certains prénoms. Parce que les données d’entraînement ont appris à l’IA que certains prénoms avaient des emplois moins valorisants. Vous vous appelez Thomas ? Vous avez de la chance car les gens qui se prénomment Thomas ont selon l’IA davantage de chance de faire carrière. Ou la position géographique : parce que l’on recense dans une certaine région du pays moins de personnes qui réussissent sur la base des données qui servent à entraîner l’IA. Autant de situations tout simplement problématiques dans la mesure où le scoring ne dit rien sur les capacités d’une personne. L’IA peut donc faire en sorte que vous ne décrochiez pas tel emploi, simplement en raison d’un algorithme qui ne vous correspond pas.
« Si des développeurs sont incapables de vous dire comment fonctionne tel scoring, c’est que vous avez affaire à un logiciel douteux et susceptible d’être tout simplement dangereux. »
Cela dit, les personnes commettent également des erreurs et ne sont pas toujours objectives. Un recruteur peut aussi faire une erreur d’appréciation.
Schellmann: Certainement, mais un recruteur sait mieux comment analyser un CV et s’efforcera d’être objectif sur la base des bons critères. Un outil d’IA convertit un CV en points de données et prend tout en compte. Pour sa part, un recruteur tient nettement moins compte du fait que vous soyez un joueur de softball ou de baseball. Cela dit, ne vous y méprenez pas : l’IA peut certes avoir une certaine valeur. Nous, êtres humains, avons tendance à nous considérer comme particulièrement objectifs et extrêmement performants. Mais nous avons tous notre jour sans où nous sommes plus grincheux et avons peut-être dès lors tendance à recaler plus rapidement un candidat. L’IA ne souffre jamais d’être le ventre vide.
Je vous comprends, l’heure du repas a sonné. Mais permettez-moi encore cette question : les départements RH qui mettent en œuvre l’AI ont-ils conscience de faire potentiellement de la discrimination ? Et si oui, comment réagir ?
Schellmann: La prise de conscience est toujours plus forte, mais ce n’est pas pour autant que des mesures sont prises. Ce que je recommande toujours aux responsables RH, c’est d’essayer d’ouvrir la ‘boîte noire’ de leur(s) fournisseur(s) de logiciels. Osez demander comment fonctionne l’outil ou le logiciel. C’est la seule manière d’éviter les biais et les discriminations potentielles. Et l’idéal serait de le savoir avant de devenir client.
Mais sans doute vaudrait-il mieux de travailler en amont en se demandant quel problème on désire en fait résoudre. Et l’outil que vous envisagez d’utiliser va-t-il résoudre le problème ou en créer d’autres. Se montrer critique et oser être sceptique donc, tout en se demandant s’il sera possible de contrôler les parti pris potentiels. Être capable en quelque sorte de contrôler de que l’on sent dans ses tripes. Comment vous sentiriez-vous si votre fils ou votre fille devait utiliser un certain outil pour décrocher un emploi ? Ou pour pouvoir exécuter tel projet ? Seriez-vous prêt à le faire vous-même pour obtenir du travail ? Si vous ne vous sentez pas à l’aise, ne l’utilisez pas. Si vous vous sentez bizarre, suivez votre instinct. Sans doute le candidat aura-t-il d’ailleurs le même sentiment.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici