Les chatbots d’IA prennent d’assaut les cabinets d’avocats et les départements juridiques des entreprises. Comment peuvent-ils rendre la pratique du droit plus efficace, de préférence sans pour autant produire des textes juridiques hallucinants?
Ne demandez plus à vos enfants d’accomplir des études d’assistant juridique: l’intelligence artificielle est déjà en train de s’accaparer de l’intégralité de ce métier. Non pas dans un an ou deux, mais dès maintenant. Rien qu’en Belgique, une demi-douzaine de robots d’IA juridiques ont été développés et sont déjà utilisés dans des dizaines de cabinets d’avocats et d’entreprises disposant d’un département juridique. Tous poursuivent le même objectif: automatiser le travail fastidieux d’analyse et d’extraction de données de textes juridiques, de la jurisprudence, de documents de politique générale et de bases de données de clauses. Un travail pour lequel des gens faisaient des études autrefois.
‘L’existence de nouvelles possibilités technologiques basées sur l’IA, en rapide évolution, ne signifie évidemment pas la disparition pure et simple des emplois et formations juridiques, que ce soit au niveau master ou bachelier’, affirme Christoph Zenner, managing partner for tax & legal services chez PwC en Belgique. ‘Ils seront simplement différents d’il y a dix ans, voire deux ans. Les emplois et les rôles ne disparaitront pas à cause de l’IA; ils évolueront. Le profil de l’assistant juridique, ou quel que soit le terme que nous emploierons bientôt, devient plus technique et numérique. Nous avons cependant encore du chemin à parcourir: il nous faudra intégrer beaucoup plus nettement les possibilités offertes par la technologie dans nos programmes de formation.’
Assistant dans un bureau d’avocats fut l’un des premiers métiers manuels que l’IA a tenté de remplacer: ce processus débuta en 2016 déjà avec l’installation de ROSS, le premier AI legal assistant basé sur le système Watson du géant informatique IBM. L’assistant défraya la chronique du monde entier à l’époque par son côté nouveau, mais en 2021, son développement fut brutalement interrompu, au sens propre comme au figuré, suite à des résultats décevants: trop coûteux, insuffisamment évolutif, et doté d’une capacité d’auto-apprentissage insuffisante. Des lacunes qui commençaient précisément à être gommées à ce moment-là par la nouvelle génération de modèles de langage artificiels. Surtout depuis l’avènement de l’IA générative fin 2022, on assiste à une prolifération d’AI-bots juridiques et de startups qui les développent.
Manœuvres
Ces dernières ont même effectué pas mal de manœuvres récemment. Aux Etats-Unis, la firme Casetext, spécialisée dans l’IA juridique, a ainsi été rachetée en 2023 pour quelque 650 millions de dollars (600 millions d’euros environ) par le géant de l’information Thomson Reuters. En Belgique, un rachat similaire a aussi eu lieu assez rapidement, puisque Henchman, une start-up gantoise qui avait développé un assistant juridique, a été reprise l’été dernier pour 160 millions d’euros par l’entreprise britannique LexisNexis, connue pour sa banque de données juridiques. LegalFly, également basée à Gand, reste indépendante (bien qu’ayant bénéficié d’un financement important grâce à 17 millions d’euros de capital-risque levés en l’espace d’un an en 2023), mais a trouvé un partenaire de renom: Microsoft, qui a intégré la solution gantoise à sa plateforme de solutions cloud, Azure Marketplace. Enfin, Harvey, une pionnière fondée à San Francisco lors de l’année charnière de GenAI 2022, est utilisée à l’échelle mondiale par PwC pour accompagner le département Tax & Legal du géant de la consultance et ses clients.
Avec un taux de croissance annuel de 9 pour cent, le secteur legaltech est l’un des marchés de logiciels les plus dynamiques d’Europe, selon le cabinet d’études de marché Grandview Research. En 2023, il représentait 5,5 milliards d’euros par an et devrait presque doubler d’ici 2030. Les applications d’IA constituent en effet l’un des axes prioritaires.
En partie parce qu’elles peuvent être utilisées dans presque tous les aspects de la pratique juridique. Que ce soit pour la rédaction de contrats ou pour les litiges traditionnels par exemple, un créneau dont Nexa AI, basée à Mortsel, a fait sa priorité. ‘Les cabinets de taille moyenne qui souhaitent se développer, recherchent des moyens d’accroître leur volume d’affaires sans embaucher directement de personnel supplémentaire’, explique Jasper D’Hooghe, cofondateur. ‘Les petits cabinets, souvent dirigés par des avocats seniors expérimentés, ont une vision différente: leur temps est précieux et coûteux, donc chaque économie compte. L’objectif final est le même dans les deux cas: une efficience accrue et une qualité supérieure. Seul le point de départ diffère.’
Des tâches, pas des emplois
Alors, à quoi sert l’IA juridique? Il s’agit d’une aide, d’un sparring-partner qui permet d’exploiter les immenses volumes de données que chaque cabinet d’avocats possède. ‘L’analyse des données est un domaine d’excellence pour l’IA’, explique Zenner. ‘Vous disposez de données clients à comprendre, et d’un cadre juridique. En combinant les deux, la valeur ajoutée de l’IA saute aux yeux. Elle peut également s’avérer très utile en matière de mise en conformité, en vérifiant si votre organisation respecte toutes les règles. Mais aussi en matière de mise à jour des connaissances. Que se passe-t-il dans le monde qui soit pertinent pour les clients, et comment les en tenir informés? On pourrait alors dire: c’est le rôle des bases de données. Certes, mais la question est toujours de savoir ce qui est pertinent pour l’individu ou le secteur. Avec un système d’IA, par exemple, on combine des connaissances internes approfondies avec des données ou des sources externes, et on détermine comment ces données sont transformées en résultats.’
L’adage classique est le suivant: les systèmes d’IA effectuent des sous-tâches définies, et non des tâches complètes. ‘L’IA peut générer rapidement des résultats répétitifs’, explique D’Hooghe. ‘Des documents juridiques brefs tels que des citations à comparaître, des mises en demeure, des conclusions simples ou des dossiers d’infraction routière standard. De nombreux avocats en rédigent des dizaines par semaine, et leur contenu est souvent largement identique, avec de légères variations contextuelles. De plus, l’intelligence artificielle peut aider à analyser plus rapidement des dossiers volumineux. Les avocats pénalistes doivent traiter des dossiers de 3.000 à 5.000 pages. Ils les lisent encore et toujours, mais l’intelligence artificielle peut les aider à trouver des informations plus rapidement. Cette recherche juridique approfondie peut également être effectuée à partir de plusieurs sources: l’IA peut aider à établir des liens. Enfin, elle peut fournir l’impulsion initiale pour les arguments de fond. Une première structure ou version conceptuelle donc, ne serait-ce que pour éviter le syndrome de la page blanche.’
Résultat erratique
Mais à un moment donné, l’humain devra reprendre le contrôle. Cette année, le barreau flamand (Orde van Vlaamse Balies) a élaboré des directives claires concernant l’utilisation justifiée de l’IA. Les avocats sont autorisés à recourir à l’intelligence artificielle à condition de posséder des connaissances de base suffisantes sur la technologie, de protéger les données confidentielles et d’examiner attentivement les résultats. Ils ne sont pas tenus d’informer leurs clients de l’utilisation de l’intelligence artificielle, mais ils demeurent responsables de toutes les informations générées par le processus d’IA: la responsabilité ne peut être imputée à la technologie.
‘Quiconque pense que l’intelligence artificielle générera désormais automatiquement des résultats d’une qualité telle que l’intervention humaine deviendra superflue, se berce d’illusions’, affirme Zenner. ‘Je ne connais aujourd’hui aucun VP Legal qui se présente à son conseil d’administration en disant: ‘Cela a été approuvé par Harvey’. Ce n’est pas ainsi que cela fonctionne. La technologie offre certes des gains d’efficience considérables, mais pour obtenir un résultat de haute qualité, une intervention humaine reste indispensable pour examiner et valider le produit final. Ces tâches demeurent humaines.’
Cette intervention humaine est également cruciale, car l’intelligence artificielle n’est pas encore totalement fiable. Si elle doit déployer trop d’efforts pour trouver des informations, elle risque de les ‘halluciner’, c’est-à-dire de les inventer. Cela rend un outil public comme ChatGPT totalement inadapté à un usage juridique. Plusieurs cas, notamment aux Etats-Unis et au Canada, ont déjà été recensés où un avocat trop sûr de lui a présenté de faux précédents lors d’une audience. Tapez ‘Smith v Jones, 2012 ABKB 224’: le format ressemble à un lemme de jurisprudence authentique, mais il n’y a aucune correspondance dans une base de données juridiques, car le texte n’existe tout simplement pas.
‘Il est crucial de former l’IA juridique uniquement à partir de sources fiables’, explique D’Hooghe. ‘Vous pouvez travailler avec vos propres ensembles de données contrôlés, configurer les sites web publics que vous considérez comme fiables, et faire en sorte que votre intelligence artificielle effectue ses recherches exclusivement au sein de ces sources. Aucun outil ne peut éliminer complètement les hallucinations, mais vous pouvez en réduire considérablement le risque.’
Harvey, l’outil de PwC, a également été conçu de cette manière: les utilisateurs peuvent désactiver la fonction de consultation de sources externes, s’ils le souhaitent. Par définition, cette technologie est encore en cours de développement. Il n’est donc pas surprenant que l’on entende fréquemment parler de rachats ou de collaborations étroites entre des entreprises legaltech dotées de leur propre IA et des acteurs possédant d’importantes bases de données juridiques. En témoigne le récent rachat de l’entreprise gantoise Henchman par LexisNexis.
Mais même ainsi, l’utilisateur a encore du travail à effectuer. Le vieil adage ‘bullshit in, bullshit out’ revient à la surface: un employé d’un cabinet d’avocats ou le conseiller juridique d’une entreprise doit savoir, entre autres, comment rédiger une requête pertinente. ‘C’est au moins aussi important qu’une meilleure technologie’, affirme D’Hooghe. ‘Il faut encore conscientiser et acquérir des compétences. De plus, l’expertise juridique est indispensable pour examiner de manière critique les résultats de l’IA. Dans de tels cas de faux précédents juridiques, impliquant parfois des personnes qui choisissent de se défendre elles-mêmes, il est presqu’inévitable qu’une version gratuite de ChatGPT ait été utilisée. C’est regrettable, bien sûr, mais un bon avocat aurait immédiatement décelé le problème. Sans formation, sans cadre de référence et sans expertise, cela devient dangereux.’