
Ann Nowé, professeure à la VUB: ‘Les entreprises belges sont préoccupées par l’AI Act’
Maintenant que le sommet mondial sur l’IA à Paris a fermé ses portes, les scientifiques et les chefs d’entreprise européens se demandent ce qui va se passer ensuite. Le 1er août 2024, la loi européenne sur l’IA (AI Act) est en effet entrée en vigueur, avec des directives strictes sur l’utilisation de l’IA. La déclaration finale du sommet insiste sur le fait que les règles strictes de la loi sur l’IA ont été relativisées dans de nombreux domaines. Les Américains en particulier ne veulent pas entendre parler de règles strictes. ‘Nous devons maintenant attendre pour voir comment la loi sur l’IA sera intégrée dans la législation européenne’, déclare Ann Nowé, professeure à la VUB, présente au sommet.
Nowé dirige l’AI-Lab de la Vrije Universiteit Brussel et est également directrice académique du FARI (l’institut d’IA de la VUB-ULB). ‘Ce sont surtout les entreprises belges qui se font du souci’, précise la professeure. ‘Elles aimeraient savoir quelles tâches et règles supplémentaires le gouvernement imposera au développement des applications d’IA et combien tout cela coûtera. Elles doivent en effet concurrencer des géants technologiques américains et chinois qui ne sont pas concernés par ces règles et lois plus strictes, tant qu’ils n’opèrent pas sur le marché européen.’
‘Il faut que cela reste réalisable’
‘La plupart des entreprises impliquées dans l’intelligence artificielle ne sont en soi pas opposées aux principes de l’AI Act’, affirme Nowé. Mais elles craignent un désavantage concurrentiel. Les lois qui découleront de l’AI Act leur imposeront en effet des obligations supplémentaires pour démontrer qu’elles se conforment effectivement à la réglementation. L’enjeu est que la mise en œuvre de la loi sur l’IA reste réalisable. De plus, le fait que les législateurs ne comprennent pas toujours les subtilités de ce qu’est exactement l’IA, crée des tensions.’
L’Europe remet en perspective l’AI Act. La loi sera mise en œuvre par étapes et devrait pleinement s’appliquer en 2027. Cette implémentation progressive devrait donner aux entreprises et aux régulateurs suffisamment de temps pour s’adapter à la nouvelle réglementation.
La loi européenne sur l’IA en bref
La loi européenne sur l’IA classe les applications d’intelligence artificielle en différents niveaux de risque, allant des risques inacceptables aux applications à faible risque. La première catégorie comprend l’utilisation de la notation sociale, les techniques de manipulation et l’utilisation de caméras intelligentes – à l’exception de certaines situations de sécurité. C’est ainsi que les systèmes d’IA ne peuvent ni manipuler ni nuire aux groupes vulnérables.
Des règles strictes s’appliquent également aux applications à haut risque. Les applications de l’IA dans le domaine de la santé, par exemple, peuvent en effet avoir des conséquences à grande portée et sont soumises à une législation stricte en matière de confidentialité. Les développeurs de systèmes de données doivent être en mesure de démontrer que leurs systèmes répondent à un certain nombre d’exigences dans les domaines de la qualité, de la transparence et de la sécurité des données.
Pour les applications à risque moyen, telles que le développement de chatbots et de modèles d’IA générative, l’utilisateur doit savoir quand il a affaire à du contenu généré par l’IA. Et pour les applications présentant un risque minimal, l’EU AI Act n’impose aucune règle. Il est important de noter que l’IA n’est bien entendu pas au-dessus des lois.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici