Sommes-nous prêts à collaborer avec des agents IA?

© Getty Images
Kristof Van der Stadt
Kristof Van der Stadt Rédacteur en chef chez Data News

Les géants de la technologie nous promettent un avenir proche dans lequel des ‘agents IA’ prendront en charge de manière autonome nos processus opérationnels, du recrutement à la planification financière. Mais derrière l’explosion d’enthousiasme technologique se cache une incertitude fondamentale dans les rangs des CIO et des responsables RH.

Depuis des mois, nous répétons le même mantra dans le contexte des logiciels d’entreprise: nous passons d’un logiciel basé sur l’IA qui nous conseille à un logiciel A qui agit également de manière autonome. Cette ‘IA agentique’ promet une efficacité optimale en exécutant des tâches de manière totalement autonome. Presque tous les fournisseurs misent pleinement sur cette évolution. Actuellement, on assiste à l’émergence d’une surenchère dans le nombre d’agents IA et à une lutte pour savoir qui proposera le logiciel global pour piloter tous ces agents IA, au-delà des limites de sa propre marque ou de son propre écosystème. Si un enthousiasme débordant est de mise dans les rangs des fournisseurs, l’utilisateur final fait parfois grise mine. En effet, de nombreuses questions subsistent, notamment en matière de confiance. Car comment garantir que tout agent IA qui décide de manière autonome des budgets ou des recrutements reste sur la voie?

Jens Lohmar

Lors de la récente conférence Rising à Barcelone, l’éditeur de logiciels dématérialisés Workday a affirmé que son IA d’entreprise ‘ne hallucinait pas’. On doit cette déclaration audacieuse à Carl Eschenbach, le CEO, à une époque où les grands modèles de langage (LLM) sont encore notoirement connus pour avoir eu l’outrecuidance inventer des faits. Selon Jens Lohmar, CTO pour l’Europe continentale chez Workday, la nuance réside dans l’architecture. Le risque d’hallucinations n’est pas tant exclu par magie que par restriction: ne pas appliquer de modèles publics génériques aux données de l’entreprise, mais former des modèles très spécialisés pour des tâches spécifiques. ‘Il s’agit toujours d’apprentissage automatique, et la marge d’erreur n’est jamais nulle’, tempère Jens, ‘mais en limitant la portée et en appliquant une gouvernance stricte, vous pouvez minimiser le risque’.

Le rôle de l’humain dans la boucle? Frein de secours

Les filets de sécurité techniques n’y font rien, la supervision humaine reste plus que jamais très demandée. Même son de cloche pour le besoin d’une ‘IA responsable’, même si Kathy Pham, autorité en matière d’éthique de l’IA et vice-présidente de l’IA chez Workday, estime qu’il ne devrait pas y avoir de distinction. ‘Pour ma part, j’estime que l’IA responsable est la seule IA possible. À défaut, on construit des systèmes irresponsables’, constate-t-elle. Kathy compare la nouvelle génération d’agents IA à un groupe de stagiaires: ‘Ils peuvent faire beaucoup de choses en toute autonome, mais, à l’arrivée, c’est le responsable, c’est-à-dire l’humain, qui décide quand le travail peut être livré’. L’humain dans la boucle reste donc un maillon essentiel pour de nombreux dirigeants qui souhaitent donner une chance à l’IA et aux agents d’IA.

Kathy Pham

Les entreprises et organisations souhaitent généralement garder le contrôle afin de déterminer le degré d’autonomie qu’elles ‘cèdent’ aux agents IA. L’une des démonstrations de la conférence Rising a révélé comment un agent IA attribue de manière autonome une prime à un travailleur en vérifiant lui-même en arrière-plan si toutes les conditions sont remplies et si le budget nécessaire est disponible. ‘Il est peut-être acceptable qu’un agent décide de manière indépendante d’accorder une prime de mille euros, mais pour une prime de cinq mille euros, vous voudrez peut-être examiné plus près’, explique Kathy. ‘Il s’agit d’un processus d’apprentissage dans lequel les entreprises ne desserrent leur étreinte sur les rênes qu’au fur et à mesure que la confiance dans le système s’accroît. Il ne s’agit pas nécessairement d’une question manichéenne. Une bonne solution intermédiaire consiste souvent à ce qu’un agent IA remarque, au fil du temps, que vous effectuez toujours le même ajustement en tant qu’être humain et vous propose alors de le faire automatiquement à l’avenir’, souligne-t-elle.

Sommes-nous encore authentiques?

Outre la fiabilité technique, il y a une problématique plus large et plus humaine: l’authenticité. Dès lors que l’IA est désormais capable de préparer des entretiens d’évaluation parfaits ou d’envoyer des e-mails empathiques aux collaborateurs, la communication risque paradoxalement de perdre son humanité. Cette préoccupation a été clairement exprimée lors de tables rondes avec des chefs d’entreprise européens. Si un manager envoie soudainement des e-mails impeccables et parfaitement formulés, les collaborateurs risquent de s’interroger: ‘Est-ce toujours mon manager ou s’agit-il d’un robot?’ Pour Scott Hill, Chief People Officer chez Capita – une grande entreprise britannique d’externalisation totalisant plus de 30 000 salariés -, l’espoir réside précisément dans l’effet inverse. Il affirme que l’automatisation des tâches transactionnelles, telles que la gestion des salaires, doit permettre de laisser place à de véritables conversations. ‘J’espère sincèrement que cela nous permettra d’être plus authentiques en ayant plus de temps pour nous parler face à face plutôt que par e-mail.’ Selon Kathy Pham, il est particulièrement important d’appréhender l’objectif d’un scénario. ‘Si votre objectif est d’être un bon manager, l’authenticité est tout aussi importante que l’efficacité, comme répondre rapidement aux e-mails. Réagir rapidement ne suffit pas, il faut aussi établir un lien humain.’ Selon elle, il existe également des scénarios dans lesquels l’IA n’entrave pas l’authenticité. Elle cite l’exemple de l’IA utilisée pour détecter des anomalies ou pour trouver des exemples de bonnes pratiques de collaborateurs dans de grandes quantités de données. ‘Dans ce cas, l’outil vous aide toujours et ne vous prive certainement pas de l’authenticité.’ Pour Kathy, en tant qu’êtres humains, nous avons un contrôle sur ces scénarios. Même si nous rendons davantage de processus autonomes, nous pouvons toujours choisir les domaines dans lesquels nous voulons préserver l’authenticité.

Scott Hill

Toujours selon l’experte en IA éthique – pqui a d’ailleurs été conseillère pour la réglementation américaine en matière d’IA dans le passé –, il s’agit également des normes que vous créez en tant qu’équipe ou organisation autour de l’utilisation des outils d’IA. Vous pouvez par exemple convenir d’utiliser des outils pour résumer les e-mails, mais que la norme reste de prendre le temps de répondre d’une manière humaine. Selon elle, c’est un ‘muscle’ que les entreprises et organisations doivent entraîner.

Le fossé entre le consommateur et le travailleur

L’idée que ‘la machine résoudra tout’ n’est pas universellement acceptée. Comme c’est toujours le cas avec les nouvelles technologies, il y a des early adopters, mais aussi des personnes qui préfèrent s’en tenir à l’écart. La transposition pratique sur le lieu de travail est parfois plus délicate. Le prestataire de services RH belge Liantis constate parfois une certaine résistance lors des processus de numérisation. Certains craignent que la technologie ne remplace le contact humain. ‘Nous recevons parfois des commentaires de personnes qui disent: ‘Avant, j’appelais simplement mon partenaire de payroll. Pourquoi dois-je désormais passer par un robot?’, nous confie Ellen Heynderickx, HR Lead Processes & Analytics chez Liantis. ‘Nous essayons toujours de faire comprendre à tout le monde les avantages de la technologie pour eux, mais aussi pour nous, et de montrer que tout peut être beaucoup plus structuré désormais.’

Angelique de Vries, President EMEA de Workday, porte un regard un peu différent sur ces évolutions. Elle affirme que les travailleurs sont effectivement prêts pour la révolution, motivés par leur comportement en tant que consommateurs. ‘Elle est déjà là. La manière dont nous interagissons avec les machines a changé’, constate Angelique. ‘À la maison, nous nous sommes habitués à obtenir des réponses immédiates de la part d’assistants intelligents, et cette attente se répercute au bureau. Nous constatons également que 75 % de nos clients utilisent déjà des possibilités offertes par l’IA.’ Selon elle, le passage à une interface conversationnelle (’AI as the new UI’) n’est pas un gadget technologique, mais une réponse à un changement de mentalité. La frustration liée au retard des logiciels d’entreprise complexes par rapport aux applications grand public devient alors un véritable levier d’adoption.

Kathy Pham abonde dans son sens. ‘En tant que consommateurs, les gens n’attendent plus une liste de résultats de recherche, mais une réponse directe à une question complexe. Pourquoi en serait-il autrement pour les travailleurs? Angelique estime que la demande est alimentée par les applications grand public: ‘Pourquoi cela ne serait-il pas possible au travail? C’est la question que se posent déjà certains travailleurs’, poursuit-elle. On peut donc comparer cette situation à la tendance ‘bring your own device’ d’il y a quelques années, lorsque les collaborateurs voulaient massivement apporter leurs propres outils au bureau.

Scott Hill constate chez Capita qu’il existe de grandes différences entre les générations en termes d’adoption. Sans grande surprise, les jeunes adoptent très rapidement la technologie, car ils ont évolué et grandi avec elle. Ce qui est peut-être plus surprenant, c’est que les personnes plus âgées, celles qui approchent de la fin de leur carrière, ont un taux d’adoption presque aussi élevé que les jeunes. Selon Scott, cela s’explique par le fait que les personnes plus âgées sont souvent ouvertes d’esprit et, parce qu’elles sont plus avancées dans leur carrière, ont également plus de temps et de fascination pour apprendre de nouvelles choses. C’est dans le groupe intermédiaire (la ‘population d’âge moyen’) que l’adoption est la plus faible et que le défi est le plus grand. ‘La raison n’en est pas la mauvaise volonté, mais le manque d’espace mental. Ces personnes sont souvent dans la phase la plus chargée de leur vie, tant sur le plan professionnel que privé, et n’ont tout simplement pas le temps d’acquérir de nouvelles compétences en plus de leurs responsabilités professionnelles actuelles’, constate-t-il.

Les entreprises sont-elles prêtes à relever ce défi?

De nombreux projets d’IA (agentic) restent pour l’instant bloqués dans la phase pilote. Souvent, si le projet lui-même est une réussite, il s’avère difficile d’en poursuivre l’extension ou d’intégrer pleinement l’IA au sein de l’organisation. Selon Jens Lohmar, le CTO, le problème n’est généralement pas tant l’IA elle-même que l’absence de bases solides ou appropriées. ‘Les entreprises s’attachent parfois à appliquer des modèles d’IA à un patchwork de systèmes obsolètes et de silos de données. Certes, cela fonctionne pour un petit test (PoC), mais dès que vous essayez de passer à l’échelle de l’ensemble de l’organisation, ces fondations fragiles s’effondrent et le projet s’immobilise’, indique Jens. Jens est d’avis que les entreprises ne seront pas prêtes pour l’IA tant qu’elles essaieront de placer l’IA comme une ‘couche’ au-dessus de leurs systèmes hérités et existants parfois désorganisés. Bien sûr, sa réponse comporte un certain biais, car une plateforme native IA est précisément l’argument de vente clé de Workday.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire