AWS mise pleinement sur l’IA agentique, tout en soulignant qu’on n’en est qu’au début de cette révolution. De nombreux défis restent à relever. ‘Un agent d’IA se comporte parfois comme un adolescent avec une carte de crédit.’ Pour autant, l’attentisme n’est pas une option.
Lors de la conférence des utilisateurs re:Invent à Las Vegas, Swami Sivasubramanian, vice-président for Agentic AI, a consacré deux heures à expliquer la stratégie d’AWS en matière d’IA. Dans une présentation typiquement américaine, parfaitement orchestrée, il a évidemment tenu un discours majoritairement positif, sans pour autant esquiver les questions pointues. ‘Déployer un agent d’IA opérationnel s’avère souvent plus complexe aujourd’hui que le problème qu’il est censé résoudre’, a-t-il déclaré.
AWS souhaite abaisser ce seuil, notamment grâce à son kit de développement logiciel Strands Agents, conçu pour ceux qui travaillent activement avec des agents. Et ils sont nombreux: preuve en est, le kit a déjà été téléchargé plus de cinq millions de fois. Accomplir les premiers pas n’est donc pas si difficile. La suite l’est beaucoup plus. Il était donc inévitable d’évoquer le nombre alarmant d’échecs de projets pilotes basés sur l’IA agentique.
Ne pas rester enfermé dans une preuve de concept
‘Il faut faire attention à ne pas rester enfermé dans une preuve de concept’, prévient Swami Sivasubramanian. En effet, la mise en place d’un trajet pilote n’est que la première étape. ‘Une preuve de concept n’est pas adaptée au déploiement ultérieur de la solution à plus grande échelle. La mise en production de l’agent reste complexe: non seulement en raison de l’échelle, mais aussi à cause de l’interaction avec l’environnement global, de l’impact du contrôle des identités et des accès, et des connexions avec d’autres outils. L’objectif est de créer un flux de travail fonctionnel. Il faut donc observer, corriger les bugs et procéder à des ajustements constants. Cela engendre une complexité qui ralentit inévitablement l’innovation.’
C’est ce qu’AWS tente de résoudre avec la plateforme Bedrock AgentCore, qui propose des outils pour chaque étape du développement d’un agent d’IA. Lors de re:Invent, AWS a lancé deux nouveaux modules destinés à rationaliser le trajet d’IA. Le module Policy gère les accès et la sécurité. Lorsqu’un agent demande l’utilisation d’un outil, AgentCore Policy vérifie si la requête respecte les règles prédéfinies. AgentCore Evaluations, quant à lui, se concentre sur les tests et le suivi des performances et de la qualité de l’agent.
Progrès plus rapides
Ces innovations illustrent parfaitement l’évolution de l’IA agentique. ‘Cela nous permet de progresser plus vite’, explique William Brennan, VP Enterprise Technology chez Blue Origin. ‘Nous utilisons actuellement 2.700 agents: pour écrire du code, gérer notre chaîne d’approvisionnement, et bien plus encore. Cela nous permet de travailler beaucoup plus rapidement.’ Blue Origin estime que, dans le futur, des millions de personnes vivront et travailleront dans l’espace. Le lancement de fusées jouera un rôle crucial à cet égard. ‘Grâce aux agents, une seule personne pourra lancer une centaine de fusées, et non l’inverse.’
Pour passer ces étapes, il est crucial d’affiner les modèles d’IA grâce aux retours d’informations. ‘Aujourd’hui, ces retours sont fournis par un humain’, ajoute Swami Sivasubramanian. ‘Mais il va de soi que nous pouvons faire mieux et plus rapidement en externalisant cette tâche à un LLM.’ AWS a d’ailleurs développé un nouveau module à cet effet, appelé Reinforcement Finetuning. Ce dernier devrait encore réduire le seuil d’accès. ‘Il sera plus facile de lancer des agents, et il ne sera plus nécessaire d’embaucher un expert en données titulaire d’un doctorat en apprentissage machine.’
Tout comme Euclide
Le facteur humain s’avère souvent être un frein au développement des agents d’IA. ‘Des LLM ayant des hallucinations, c’est une chose’, explique Byron Cook, VP & Distinguished Scientist chez AWS. ‘Or les agents sont basés sur des LLM. Un agent peut alors soudainement se comporter comme un adolescent qui a emprunté la carte de crédit de ses parents.’ Et qui l’a utilisée pour acheter, par exemple, un cyclomoteur ou un poney en ligne. ‘C’est à cela que nous sommes confrontés aujourd’hui. Alors, que faisons-nous? Nous surcompensons en ajoutant beaucoup – trop – de supervision humaine au processus.’
AWS gère cela en définissant précisément les actions autorisées par un agent et les limites de ces actions. Chaque étape capitalise ainsi sur la précédente, définie de manière détaillée. ‘Cette approche n’a rien de nouveau’, explique Byron Cook. ‘Euclide travaillait de la même manière il y a plus de deux mille ans.’ C’est précisément parce que les étapes sont définies avec précision qu’on peut utiliser un algorithme en toute confiance pour vérifier la validité d’un modèle. ‘C’est ainsi qu’on parvient à une forme de raisonnement automatisé.’

Surtout ne pas attendre
Ces exemples illustrent comment AWS s’efforce de répondre aux réserves que de nombreuses entreprises nourrissent actuellement à l’égard de l’IA agentique: son caractère imparfait, les problèmes potentiels liés à de mauvaises applications, les risques de sécurité, etc. ‘Nous sommes toutefois d’accord pour dire que l’IA va tout changer’, déclare Colleen Aubrey, VP Applied AI chez AWS. ‘Faut-il donc attendre que tout soit parfaitement en place avant de commencer à l’utiliser?’
Colleen Aubrey ne le ferait pas, car le statu quo n’est pas ce que nous souhaitons en tant que société. Selon elle, la difficulté ne réside même pas dans la technologie: ‘Le défi est de savoir comment nous, humains, collaborons avec l’IA, comment nous apprenons à considérer les agents comme des collègues. Surtout lorsqu’ils seront bientôt amenés à résoudre des problèmes que nous ne pouvons tout simplement pas imaginer aujourd’hui.’ La question est de savoir s’il est judicieux d’accepter un agent comme un collègue, sur un pied d’égalité avec nous. Ou devrions-nous plutôt le maintenir dans un rôle subordonné, de soutien? Cette question est restée sans réponse lors de re:Invent.
Sommes-nous prêts à collaborer avec des agents IA?