L’AI Act européen: “Le venin se trouvera dans les détails”

© Getty Images

C’est avec une grande fierté que le Parlement européen a approuvé ce 14 juin une loi offrant un cadre à l’intelligence artificielle. L’AI Act européen est destiné à réglementer la technologie de l’IA et à assurer plus de sécurité et de transparence. Et ce n’est que le début, car seul le Parlement européen a adopté la proposition de loi. Les institutions de l’UE doivent à présent encore négocier un accord. Entre-temps, les entreprises considèrent avec un peu de méfiance la suite du processus législatif.

On a déjà dit et écrit beaucoup de choses à propos de la nécessite d’un AI Act européen. Surtout que c’était urgent, parce que l’intelligence artificielle (IA) reçoit une place toujours plus importante dans notre société. L’émergence des applications d’IA générative telles que ChatGPT, a généré ces derniers mois une accélération tant technologique que juridique. Et les tableaux noirs des applications IA incontrôlables qui sont apparus – à tort ou à raison -, ont contribué à la prise de conscience qu’un cadre réglementaire était nécessaire pour l’IA.

L’AI Act a évidemment comme objectif de réglementer l’IA. Dans ce but, l’UE va répartir les applications IA en quatre groupes à risque, pour lesquels d’autres règles s’appliqueront à chaque fois. Cela ira des applications à faible risque, comme les filtres antispam, jusqu’aux applications à haut risque, comme les voitures autonomes et les applications médicales, voire l’utilisation inacceptable de l’IA. Les systèmes de crédit social sous surveillance IA, comme en Chine, se heurteront par exemple à un veto de la part de l’UE.
Cette approche différenciée est une force, selon Raphaël Weuts, professeur-invité d’IA à l’UCCL et examinateur des cadres juridique et éthique de l’utilisation de l’IA dans les soins de santé: ‘Les applications à faible risque ne se verront imposer que peu, voire aucune limite, ce qui fait qu’il n’y aura pas de frein à l’innovation. Le risque accru ira de pair avec davantage d’obligations en vue de stimuler la surveillance, les tests et une utilisation sûre.’

Caractère intemporel

L’émergence rapide de ChatGPT n’a fait que souligner l’évolution rapide de l’intelligence artificielle et de son utilisation. ‘C’est là le grand défi auquel le législateur est confronté’, insiste le parlementaire européen Tom Vandenkendelaere. ‘Le recours à des catégories de risque est une bonne tentative en vue d’atteindre un cadre légal intemporel, mais nous sommes tous conscients que nous devrons continuer à le passer en revue.’ Le succès de l’IA générative, telle que ChatGPT, en est un exemple. ‘Il n’y avait pas de catégorie prévue pour elle dans la proposition de la Commission européenne, parce qu’il n’en était pas encore question à l’époque. Dans la loi, nous voulons à présent encore intégrer une catégorie supplémentaire pour veiller à ce que les applications d’IA générative soient soumises à toute une série de conditions.’

“L’IA évolue très vite. C’est là le grand défi auquel est confronté le législateur.”

Le parlementaire européen Tom Vandenkendelaere

Selon Weuts, la loi ne vient à coup sûr pas trop tôt: ‘Indépendamment de la façon dont l’IA évoluera, nous garderons le loi comme un bon moyen de pression et pourrons en tout cas réagir plus rapidement. La collaboration et l’harmonisation de la législation iront nettement plus vite en Europe.’ Il distingue cependant aussi quelques lacunes: ‘La loi actuelle est très procédurière et destinée à mitiger les risques concrets d’applications d’IA connues. C’est précisément pourquoi la loi aura rapidement besoin d’être adaptée. Il aurait peut-être été préférable d’élaborer un cadre légal se basant sur les droits sous-jacents que nous souhaitons protéger, et pas tant sur le fait de mitiger les risques existants.’

De l’embarras pour les entreprises

En collaboration avec l’UCCL, quelques suites possibles que la loi induira, mais qui ne seront certainement pas uniques, seront examinées. ‘Pour l’application effective, des entités s’avéreront nécessaires pour réagir vite et permettre un échange rapide d’informations, par exemple via des contrats intelligents. Une bonne amorce se trouve déjà dans l’AI Act avec l’EU Database for High Risk AI Systems.’ Ces exigences informatives auront un impact sur le fonctionnement des entreprises qui développent des applications IA à ranger dans la catégorie à haut risque. ‘Satisfaire à cette obligation d’enregistrement coûtera des efforts supplémentaires, mais c’est précisément aussi le genre d’innovation que l’UE entend stimuler: des systèmes IA qui répondent à certaines normes et qui peuvent s’adapter rapidement aux nouvelles exigences.’

“Les applications à faible risque ne se verront imposer que peu, voire aucune limite, ce qui signifie qu’il n’y aura pas de frein à l’innovation.”

Raphaël Weuts, professeur invité d’IA à l l’UCCL

L’une des entreprises qui devra très probablement faire face à ces obligations d’enregistrement, c’est Radix. L’entreprise belge de services IA aide les firmes à développer des initiatives en IA, comme la mise au point d’un outil IA d’accompagnement dans les études. Il s’agit là d’un exemple d’application qui ferait partie de la catégorie à haut risque. Son CEO, Davio Larnout, souscrit à la vision, selon laquelle l’AI Act engendrera un bon type d’innovation et davantage de confiance dans l’IA, surtout à long terme, mais il distingue à courte échéance quelques grands points d’interrogation: ‘Dans les circonstance actuelles, tout semble très lourd du point de vue administratif. La question que nous nous posons actuellement, c’est évidemment de savoir quels seront les détails de ces exigences et ce que cela représentera comme contraintes supplémentaires.’

Le coût de l’innovation

Le CEO de Radix cite en exemple l’incorporation d’un système de gestion des risques. ‘La conséquence, c’est que les business cases seront différents et que les clients réfléchiront aux effets et aux coûts.’ Parallèlement, il place aussi un grand point d’interrogation sur la différence entre la phase de développement et le lancement sur le marché de la technologie IA: ‘J’espère que la réglementation ne s’appliquera que quand les systèmes d’IA apparaîtront sur le marché et ne se trouveront pas en phase expérimentale. Car cette contrainte supplémentaire pourrait avoir un effet inhibitif sur les efforts consentis pour innover. Cela rendrait certains cases moins intéressants.’

“La loi engendrera une plus grande confiance dans l’IA. Dans les circonstance actuelles, tout semble très lourd sur le plan administratif.”

Davio Larnout, CEO chez Radix

Parallèlement, Larnout espère aussi que la catégorie à haut risque ne deviendra pas une catégorie ‘divers’ pour toutes les innovations sur lesquelles plane une incertitude: ‘Lors de l’élaboration de la loi, nous avons observé la rapidité avec laquelle des applications d’IA pouvaient aboutir dans la catégorie, mais qu’elle pouvaient tout aussi vite en disparaître. Cette porte peut donc s’ouvrir assez facilement, ce qui pourrait faire en sorte que pas mal d’administration et de frais de développement viennent rapidement s’y ajouter. Cela se traduirait par davantage d’incertitude.’ A long terme, Larnout se veut positif: ‘Si l’implémentation est correcte, il sera possible de créer la confiance et de réduire les hésitations à propos de l’utilisation de l’IA. La réglementation générera ainsi un cadre transparent tant pour les développeurs, les investisseurs que pour les utilisateurs.’

Limites créatives

La firme gantoise StoryMe attend avec un peu de méfiance la suite du processus légal. C’est que l’agence de vidéos mise pleinement sur l’utilisation de l’IA générative pour ses productions créatives. Elle a dans ce but engagé le stratège technologique Vincent Buyssens et l’a nommé AI Captain. Les obligations de transparence en matière d’IA générative, à savoir la labellisation d’images et de textes générés par l’intelligence artificielle, auront éventuellement des effets sur le processus créatif.

‘Nous espérons vivement que nous n’aboutirons pas à un modèle qui examinera à la loupe chaque travail manuel de manière trop intensive, sous peine que nous risquions de nous enliser dans un marasme juridique ’ La protection des artistes est nécessaire et évidente, selon StoryMe, mais il ne faut pas tomber dans l’excès. ‘Fondamentalement, il n’y a pas de différence entre un artiste qui tire son inspiration de son environnement et d’autres artistes, et l’IA qui fait exactement pareil. Il est donc parfaitement possible que du contenu créatif se compose pour cinq pour cent du travail de quelqu’un d’autre lors d’un contrôle, mais reste à savoir à quel moment il est question de violation du droit d’auteur’, affirme Vincent Buyssens. ‘Un poster de film dans le plus pur style ‘Stranger Things’ ou ‘Star Wars’ constitue évidemment une violation du droit d’auteur, mais les choses sont rarement aussi évidentes.’

“Nous saluons comme il se doit les mécanismes de contrôle, aussi longtemps qu’ils n’influencent pas le processus créatif.”

Tone De Cooman, creative director chez StoryMe

Tant le travail d’artistes que de l’IA générative représente donc une boîte noire dont on ignore comment elle a été créée. Dans cette optique, il est étrange, selon Tone De Cooman, creative director chez StoryMe, que pour l’IA, une totale transparence soit exigée: ‘A mes yeux, il est impossible d’y arriver.’ Pour lui, cette exigence est pourtant justifiée: ‘Les artistes peuvent se voir priver de leur gagne-pain, parce que l’IA générative copie et exploite pleinement leur travail ou leur style et qu’il n’est donc plus du tout question d’une influence inspirante. Nous saluons comme il se doit ces mécanisme de contrôle, aussi longtemps qu’ils n’influencent pas l’essence du processus créatif.’

A cet égard, StoryMe considère l’AI Act comme un éventuel fil rouge bienvenu. ‘Par exemple pour former et affiner encore nos propres modèles d’IA. Nous pourrions ainsi offrir plus de transparence et de certitude aux clients, voire en tirer un avantage concurrentiel. Ce serait un atout à long terme’, estime De Cooman. A brève échéance, Vincent Buyssens espère surtout de la clarté dans les règles ‘Nous ne craignons pas de violations des droits d’auteur, mais plus vite les choses seront claires, mieux ce sera. Le venin se trouvera dans les détails.’

C’est à partir de septembre qu’auront lieu ce qu’on appelle les trialogues, où la Commission européenne, le Parlement européen et le Conseil des ministres négocieront sur l’actuelle proposition juridique qui a été approuvée. Au printemps prochain, sous la présidence belge, un accord final devrait être trouvé. Enfin, les états membres devront encore convertir la loi dans leur législation locale avec comme date prévue début 2025.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire