L’IA, fer de lance de la lutte contre la fraude financière

© Getty Images

Dans la lutte contre la fraude financière et les pratiques de blanchiment, l’intelligence artificielle a conquis une place essentielle au sein du secteur financier.

Les banques utilisent ainsi des modèles sophistiqués pour détecter toute transaction frauduleuse et satisfaire à des réglementations de tous ordres. Mais si l’IA supporte et accélère de nombreux processus, la transparence reste indispensable pour assurer la confiance des autorités de surveillance.

Le recours à l’IA par le secteur financier n’est certes pas nouveau. En effet, les banques utilisent depuis longtemps déjà des outils analytiques et des modèles d’apprentissage machine pour détecter les fraudes. D’ailleurs, le secteur estime que le recours à de tels modèles se révèle indispensable dans cette lutte, en particulier en raison des obligations légales imposées aux banques. « Les banques jouent un rôle crucial face à la fraude à différents niveaux, explique Fabrice Deprez, CEO de Discai, une filiale du groupe KBC spécialisée en technologie financière et bancaire de lutte contre la criminalité financière. Les banques doivent protéger leurs clients et elles-mêmes en tant qu’institution. Elles font office de protecteur du système financier et économique face à la menace croissante de fraude financière, surtout dans le recours à des technologies sophistiquées par les criminels. »

Rôle sociétal

Les banques jouent aussi un rôle sociétal, imposé par la Banque nationale de Belgique (BNB) et la Banque centrale européenne (BCE), en tant que gardien pour aider à prévenir les pratiques de blanchiment. « Les banques doivent analyser toutes les transactions qu’elles traitent sur la base de différents paramètres, poursuit Fabrice Deprez. Toute transaction suspecte est ensuite filtrée pour enquête plus détaillée par des équipes spécialisées en conformité. Plus la complexité des techniques de blanchiment s’accroît, plus les scénarios sont complexes, ce qui se traduit par une augmentation du nombre de transactions suspectes. D’où une charge de travail sans cesse plus forte, même s’il s’agit souvent de fausses alertes. »

« Sans le recours à l’IA, ce serait mission impossible que de satisfaire à ces obligations, estime pour sa part Jonathan Neubourg, Chief Digital Data & AI Officer chez Belfius. Les ressources affectées pour protéger nos clients et être conforme atteindraient des proportions astronomiques en raison du nombre de personnes qui seraient nécessaires – sans le recours à l’IA. » Les modèles d’IA fonctionnent comme des filtres que traverse chaque transaction. Lorsqu’un cas est considéré comme atypique, des personnes se chargent alors de l’analyser manuellement. Jonathan Neubourg : « Nous utilisons aussi bien des outils à base de règles que des modèles d’IA pour examiner ces transactions sous différents angles, et ces solutions ont prouvé leur efficacité. »

Cadre éthique et juridique

Les modèles mis en œuvre par les banques analysent toutes ces données disponibles : données de transactions, données personnelles, lieu de résidence, etc. « Des réglementations très strictes sont imposées pour autoriser ces modèles. Nous devons ainsi prouver qu’il n’y a aucun biais et que le recours est justifié sur le plan éthique », fait remarquer Jonathan Neubourg. Les données historiques – bien sûr totalement anonymisées et exemptes de tout lien avec les personnes – servent de jeux d’entraînement pour continuer à affiner les modèles, outre le feedback des responsables de la conformité.
Ce que les banques n’utilisent pas aujourd’hui, mais qui représente une piste possible pour l’avenir, c’est le recours à des copilotes basés sur l’IA. Ceux-ci pourraient permettre d’analyser des documents et des bases de données, et d’interroger ensuite ces données au départ d’une interface de dialogue. Des questions comme : qui est la contrepartie de cette transaction ?A quel rythme les transferts d’argent se font-ils ? De quels montants s’agit-il ? Un tel copilote pourrait faire office de boîte à outils humaine augmentée pour améliorer l’efficacité du travail.

IA explicable

Ces dernières années, l’attention s’est surtout portée sur l’IA générative ou GenAI, notamment avec l’émergence des Large Language models (LLM) comme ChatGPT. Et cela fait maintenant une année que le secteur financier expérimente cette technologie avec différents projets pilotes susceptibles de jouer un rôle non seulement dans la détection de la fraude et du blanchiment d’argent, mais aussi dans le rapportage et la validation de transactions suspectes. En d’autres termes, améliorer au maximum la mise à disposition des données. « Cela induit de nombreux défis en termes de législation et de responsabilité, note encore Fabrice Deprez de Discai. Or aujourd’hui, la technologie n’est pas suffisamment mature. Ce que nous voyons sur le marché est certes attrayant et intéressant, mais ne garantit pas une conformité suffisante selon nos normes. » C’est ainsi que des applications de GenAI débouchent encore trop souvent sur des résultats non explicables.

« Si une personne se voit subitement attribuer un profil de risque plus élevé, nous devons pouvoir l’expliquer. »

Fabrice Deprez, CEO de Discai


Deprez insiste sur l’importance d’une IA explicable. « Tout modèle que nous mettons en œuvre doit se révéler dès le départ totalement transparent et fournir des résultats que nous pouvons expliquer. Si un modèle dérape et génère des conclusions inattendues, nous analysons la situation et l’adaptons en entraînant à nouveau le modèle si nous ne sommes pas en mesure d’expliquer la modification. »Les résultats des modèles évoluent en effet en fonction des données qui les alimentent. « Si une personne se voit subitement attribuer un profil de risque plus élevé, nous devons pouvoir l’expliquer et en faire rapport tant à l’autorité de surveillance qu’au client, note Fabrice Deprez. À défaut, c’est probablement qu’il y a une erreur dans les données ou un problème avec le modèle. Et nous devons alors intervenir. » Bref, non seulement les modèles d’IA doivent être suffisamment matures, mais également les processus associés, afin de garantir tant la qualité que la stabilité.

Hyper-automatisation

De son côté également, Worldline, l’un des leaders mondiaux des solutions de paiement, considère la législation comme le fil rouge majeur dans le secteur. « Nos modèles sont entraînés sur la base de jeux de données qui comportent des transactions à la fois autorisées et frauduleuses sous différentes formes ainsi que des attaques frauduleuses. Chaque modèle est flexible et se concentre sur un domaine spécifique, explique Myles Simpson, Business Strategy & Innovations Manager pour les solutions de fraude chez Worldline. Si nous remarquons que le système ne prend pas en compte certains cas de fraude ou si un trop grand nombre de faux positifs sont constatés, nous entraînons à nouveau les systèmes. Sachant que la fraude évolue constamment, l’entraînement doit devenir une constante si nous voulons maintenir notre taux de réussite. »

Chez Worldline également, la mise en œuvre de la GenAI est un thème majeur, avec différents projets pilotes d’ores et déjà en cours de déploiement. « L’utilisateur d’une carte de paiement reçoit par exemple une notification par un agent conversationnel en cas de transaction inhabituelle. Mais inversement, le client peut également poser une question sur un cas spécifique »,précise Tessa Dzial, responsable de l’équipe data science pour la prévention de la fraude chez Worldline. De nombreux clients connaissent donc déjà ce type de GenAI sans que cela ne suscite trop d’inquiétudes au plan législatif. « Il s’agit d’un outil de communication neutre. »

Mais les choses deviennent différentes lorsque c’est la GenAI qui définit les règles et les algorithmes sur lesquels se basent les modèles pour analyser la fraude. Myles Simpson : « Le résultat est alors du code Python ou JavaScript par exemple. C’est très précieux dans la mesure où cela permet de l’hyper-automatisation puisque si la fraude prend d’autres formes, les modèles peuvent s’adapter d’eux-mêmes. » Mais cette manière de travailler induit actuellement des freins tant éthiques que juridiques. « C’est précisément la raison pour laquelle il est important d’évoluer le plus rapidement possible vers un modèle à base de règles qui permettrait aux banques de disposer d’un rayon d’action bien défini, considère Myles Simpson. Il est important de savoir que nos modèles seront toujours en constante évolution et que nous devons continuer à prendre en considération les standards éthiques et la notion de vie privée. »

Au-delà des limites des banques

Myles Simpson insiste sur la nécessité d’une collaboration plus étroite entre banques à l’avenir, avec davantage d’échanges d’informations. Aujourd’hui, cela n’est pas possible, ou du moins pas au point de permettre d’améliorer les possibilités en termes d’IA. « Il n’y a pas de concurrence entre les banques lorsqu’il s’agit de lutte contre la fraude. C’est un combat commun qui transcende les frontières des banques », croit savoir Myles Simpson. La conformité RGPD et la confidentialité des données doivent certes être strictement respectées. En effet, pas question qu’en cas d’entraînement des modèles, les bases de données de la banque A soient associées à celles de la banque B. « De même, les clients et les banques doivent partager leurs données sur base volontaire. »

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire