Plus elle s’impose dans les organisations, plus l’intelligence artificielle couvre un large spectre de processus organisationnels.
L’AI & Big Data Expo d’Amsterdam a permis de voir comment des acteurs internationaux améliorent ou peuvent améliorer leurs processus – tant au niveau des clients que de leur dorsal. Le large éventail d’orateurs présents à Amsterdam ne laissait planer aucun doute : les initiatives d’IA émergent dans tous les secteurs. Reste à voir si ceux-ci arrivent vraiment à maturité. Il n’empêche que bon nombre d’entreprises affirment que leurs projets ont entre-temps dépassé le stade du pilote.
Le MLOps dans le cosmétique

Le géant du cosmétique L’Oréal a posé les fondations de ses projets d’IZ dès 2018 déjà. « A l’époque, nous n’étions pas particulièrement reconnus comme un précurseur sur le plan de l’innovation IT », confie Ismaïl El Maarouf, ML Ops Lead. Mais les choses ont entre-temps changé. « Nous avons analysé les technologies susceptibles de nous aider à améliorer nos produits, nos services et l’expérience client. Cet exercice a débouché sur une transformation en profondeur de notre organisation IT. »
Le rachat de ModiFace a par ailleurs dopé les ambitions en matière d’IA. Cette entreprise canadienne était en effet pionnière dans l’intelligence artificielle et dans la réalité augmentée en matière de conseils de beauté virtuels. C’est ainsi que sur la base d’une photo, l’application reconnaît le type de peau et détecte les signes de vieillissement de la peau. L’Oréal visualise ensuite les effets de ses produits, ce qui lui permet d’affiner constamment ses diagnostics. Par ailleurs, un partenariat avec l’appli de suivi des règles Clue a permis de comprendre comment les cycles hormonaux impactent la nature de la peau et de cartographier les effets de la pollution atmosphérique sur la base de données de localisation anonymisées.
Complexité croissante
La poursuite du développement de ModiFace a induit plusieurs défis nouveaux. « Notre portefeuille de produits ne cesse de s’enrichir et d’évoluer, poursuit El Maarouf. L’éventail croissant d’analyses et de conseils, que ce soit au niveau des soins de la peau ou du maquillage, rend la complexité toujours plus grande. En outre, nous sommes confrontés au caractère non-déterministe des LLM qui ne donnent pas toujours la même réponse exacte à la même question. »
Afin de maîtriser cette complexité, L’Oréal a mis au point une plateforme MLOps (Machine Learning Operations) sur Google Cloud. Celle-ci répartit le développement ML sur 4 environnements selon les principes DevOps : DataOps, développement, déploiement et production. « Cette approche permet de favoriser une collaboration efficace, de minimiser les risques et de faciliter le basculement entre développement et production. »
Lors de la mise au point d’applications LLM, l’Oréal s’appuie sur le cadre open source LangChain. « Il nous permet d’enregistrer, d’isoler, de comparer et d’analyser facilement de nouvelles versions. Ce faisant, nous détectons plus rapidement toute erreur ou tout écart, d’où la possibilité de constater objectivement si une nouvelle version de modèle offre des performances meilleures, plus cohérentes ou plus fiables. De plus, LangChain nous permet de gérer un plus grand nombre de jeux de données dans un délai plus réduit et d’effectuer davantage de tests en parallèle. »
Holmes GPT

Si l’IA appliquée au niveau frontal s’axe surtout sur le service client et la personnalisation, elle joue également un rôle crucial dans l’accélération de l’accès à la technologie pour les collaborateurs. C’est le cas chez Siemens qui a transformé ses processus de clôture financière avec Holmes GPT, un assistant à base d’IA pour le département financier.
« La clôture financière est un processus complexe et intensif qui s’accompagne de directives et de standards stricts, estime Davide Aurucci, AI Lead & Solutions Expert chez Siemens. Les infos nécessaires se trouvent dans des sources multiples qui se recoupent. » Retrouver ces informations, les comprendre et les appliquer exige beaucoup de temps et de ressources. C’est pourquoi le département financier recherchait une manière de centraliser des données et de les rendre aisément consultables.
Siemens a trouvé la solution avec Holmes GPT, un agent conservationnel no-code. Outre GPT-4.1, cet agent intègre le Language Understanding (LUIS) de Microsoft. Davide Aurucci : « Ce service d’IA conversationnelle d’Azure applique l’apprentissage machine pour détecter les informations pertinentes en langage naturel et interpréter ensuite correctement les intentions de l’utilisateur. Holmes GPT se connecte à notre base de connaissances Wiki interne ainsi qu’à plus de 3.000 documents internes et externes dans SharePoint. Le modèle en extrait les informations pertinentes avant de les présenter de manière claire et transparente, avec mention de la source et des références. Il va de soit que Holmes GPT opère dans un environnement sécurisé. Les nouveaux flux de travail ont permis d’augmenter la productivité du service financier tout en réduisant la dépendance vis-à-vis du support IT. En d’autres termes, Holmes GPT permet d’offrir un environnement de travail plus moderne et plus attractif. »
Une plateforme ML centralisée chez Uber

Il va de soi que les entreprises technologiques ne sont pas les dernières à déployer l’intelligence artificielle dans un large éventail de processus organisationnels. C’est ainsi qu’Uber met en œuvre des modèles d’apprentissage profond au cœur de très nombreuses applications critiques. La plateforme Michelangelo notamment fait office depuis 2016 déjà de moteur de l’ensemble des initiatives d’apprentissage machine.
Melda Salhab, AI Technical Product Manager chez Uber, explique à cet égard : « Autrefois, nous lancions des initiatives ML plutôt de manière ponctuelle, avec des flux de travail moins structurés. Cela entraînait des incohérences. De même, sur le plan de l’évolutivité, de la réutilisation du code et de la mise en production, de nombreux éléments devaient encore être améliorés. Désormais, Michelangelo couvre l’ensemble du flux de travail au départ d’une seule plateforme centralisée : gestion des données, entraînement des modèles, évaluation, implémentation et contrôle des prévisions. » Et si Michelangelo ciblait au départ l’analyse de données structurées, Uber a décidé entre 2019 et 2023 de franchir le pas de l’apprentissage profond, suivi de la transition vers l’IA générative.
Salhab cite ainsi différents exemples concrets. Ainsi, QueryGPT utilise l’IA générative pour convertir du texte en requêtes SQL. « Notre plateforme traite mensuellement quelque 1,2 million de requêtes interactives, dont plus d’un tiers provient des départements opérationnels. Nos collaborateurs désirent par exemple savoir combien de trajets ont été effectués tel jour dans telle ville ou région. Traditionnellement, une telle analyse exigeait une expertise spécifique en matière de schémas de tables et de jeux de données spécifiques, après quoi l’utilisateur pouvait encoder manuellement sa requête. Or QueryGPT automatise ce processus et génère une requête fiable en 3 minutes seulement, là où il fallait en moyenne de l’ordre de 10 minutes. »
Questions non-posées

Sans grande surprise, de très nombreux orateurs qui sont intervenus à Amsterdam ont évoqué la désormais fameuse étude du MIT sur les projets pilotes en matière d’IA générative. Ce rapport indique que 95% des initiatives sont un échec. En cause, partiellement la technologie elle-même, estime Indrek Vainu, responsable de l’IA conversationnelle chez Zurich Insurance. « L’IA générative vise la satisfaction de l’utilisateur. Dans le secteur des assurances, où la confidentialité des données et la conformité sont une priorité, votre volonté est donc d’entraîner les LLM en fonction des réponses qu’elles ne peuvent pas donner. Par ailleurs, les clients ne souhaitent pas parler à un agent conversationnel d’assurance, mais attendent simplement des réponses à leurs questions. Il faut donc adapter l’application de GenIA en conséquence. »
Toujours selon Vainu, les agents d’IA manquent souvent d’input de base et posent des questions non-pertinentes aux utilisateurs. « Ils combinent parfois des données incorrectes, ce qui appauvrit les données utilisées par la suite dans le processus. Et lorsqu’une étape génère un output de mauvaise qualité, l’ensemble du processus s’en trouve pollué. C’est pourquoi dans la plupart des cas, des applications qui s’appuient totalement sur des agents d’IA ne sont pas prêts à être déployés sur le terrain. »
Enfin, Vainu met en garde contre le risque de surenchère. « Pourquoi utiliser un canon pour tuer une mouche ? Pour de nombreux problèmes, des agents d’IA à base de règles suffit pour obtenir une décision prévisible et transparente. Et si des LLM sont quand même nécessaires, commencez petit et étendez le projet par la suite. » Cela permet non seulement d’atteindre de meilleurs résultats, mais aussi de crédibilité ensuite l’outil dans l’organisation.