L'UE est la première puissance mondiale à introduire des règles en vue d'éviter les abus, dans l'espoir de tracer les lignes d'une action à l'échelle mondiale. 'Nous pouvons préparer le trajet d'une technologie éthique dans le monde entier', déclare à ce propos la vice-présidente Margrethe Vestager.

La direction au quotidien de l'UE entend ainsi répartir les formes d'intelligence artificielle en fonction du danger qu'elles représentent pour les droits des citoyens. 'Toute technologie inadmissiblement dangereuse' doit être interdite, comme par exemple lorsqu'elle est utilisée dans des jouets qui peuvent inciter les enfants à adopter un comportement menaçant.

'Chatbots'

Pour l'intelligence artificielle constituant un haut risque, la Commission entend appliquer des règles strictes. C'est ainsi que les données avec lesquelles ces systèmes opèrent, doivent être parfaitement corerctes, afin d'éviter de nuire aux citoyens. Il convient aussi de savoir comment un système en arrive à une conclusion déterminée. Et il faut toujours qu'un humain surveille ledit système.

Même une technologie moins risquée, comme les 'chatbots' utilisés par de nombreuses instances pour renseigner les visiteurs, doit satisfaire à des règles, peut-être moins rigoureuses. Il convient toujours de savoir clairement qui parle: une personne ou un logiciel intelligent. 'Pour ce qui est de l'intelligence artificielle, la confiance n'est pas quelque chose d'anodin, mais une nécessité', souligne Vestager.

Pas de crédit social

Dans la pratique, cela revient à dire que les soi-disant systèmes de 'social credit', comme la Chine les utilise déjà, doivent être interdits. Les règles doivent également empêcher la manipulation et l'exploitation des personnes vulnérables. L'utilisation de l'AI par la police, via par exemple la reconnaissance faciale, est 'en principe défendu', avec cependant une liste d'exceptions. C'est ainsi que les juges peuvent autoriser l'utilisation de l'AI pour résoudre certains méfaits ou pour empêcher des attentats terroristes.

C'est dans le cadre de limites sécurisées que l'intelligence artificielle doit évoluer au sein de l'UE: tel est l'objectif. La technologie inclut en effet 'une immense promesse', affirme le commissaire Thierry Breton (marché interne) de l'UE. Voilà pourquoi l'UE doit 'devenir un carrefour d'excellence mondial dans le domaine de l'AI: du laboratoire jusqu'au marché'. Le Français veut y injecter de l'argent et de l'énergie, afin d'attirer davantage de personnes talentueuses et pour que les chercheurs et les entreprises se rapprochent dans un espace commun.

Sur base des premières critiques publiques, ces règles semblent bien équilibrées, même si la satisfaction n'est pas unanime. Les activistes de la confidentialité se plaignent ainsi que les règles ne vont pas assez loin au niveau de la protection, parce qu'elles autorisent encore et toujours la reconnaissance faciale. Quant à l'industrie technologique (américaine), elle trouve que les règles vont nettement trop loin, et aspire à un cadre moins rigoureux pour l'AI.

L'UE est la première puissance mondiale à introduire des règles en vue d'éviter les abus, dans l'espoir de tracer les lignes d'une action à l'échelle mondiale. 'Nous pouvons préparer le trajet d'une technologie éthique dans le monde entier', déclare à ce propos la vice-présidente Margrethe Vestager.La direction au quotidien de l'UE entend ainsi répartir les formes d'intelligence artificielle en fonction du danger qu'elles représentent pour les droits des citoyens. 'Toute technologie inadmissiblement dangereuse' doit être interdite, comme par exemple lorsqu'elle est utilisée dans des jouets qui peuvent inciter les enfants à adopter un comportement menaçant.Pour l'intelligence artificielle constituant un haut risque, la Commission entend appliquer des règles strictes. C'est ainsi que les données avec lesquelles ces systèmes opèrent, doivent être parfaitement corerctes, afin d'éviter de nuire aux citoyens. Il convient aussi de savoir comment un système en arrive à une conclusion déterminée. Et il faut toujours qu'un humain surveille ledit système.Même une technologie moins risquée, comme les 'chatbots' utilisés par de nombreuses instances pour renseigner les visiteurs, doit satisfaire à des règles, peut-être moins rigoureuses. Il convient toujours de savoir clairement qui parle: une personne ou un logiciel intelligent. 'Pour ce qui est de l'intelligence artificielle, la confiance n'est pas quelque chose d'anodin, mais une nécessité', souligne Vestager.Dans la pratique, cela revient à dire que les soi-disant systèmes de 'social credit', comme la Chine les utilise déjà, doivent être interdits. Les règles doivent également empêcher la manipulation et l'exploitation des personnes vulnérables. L'utilisation de l'AI par la police, via par exemple la reconnaissance faciale, est 'en principe défendu', avec cependant une liste d'exceptions. C'est ainsi que les juges peuvent autoriser l'utilisation de l'AI pour résoudre certains méfaits ou pour empêcher des attentats terroristes.C'est dans le cadre de limites sécurisées que l'intelligence artificielle doit évoluer au sein de l'UE: tel est l'objectif. La technologie inclut en effet 'une immense promesse', affirme le commissaire Thierry Breton (marché interne) de l'UE. Voilà pourquoi l'UE doit 'devenir un carrefour d'excellence mondial dans le domaine de l'AI: du laboratoire jusqu'au marché'. Le Français veut y injecter de l'argent et de l'énergie, afin d'attirer davantage de personnes talentueuses et pour que les chercheurs et les entreprises se rapprochent dans un espace commun.Sur base des premières critiques publiques, ces règles semblent bien équilibrées, même si la satisfaction n'est pas unanime. Les activistes de la confidentialité se plaignent ainsi que les règles ne vont pas assez loin au niveau de la protection, parce qu'elles autorisent encore et toujours la reconnaissance faciale. Quant à l'industrie technologique (américaine), elle trouve que les règles vont nettement trop loin, et aspire à un cadre moins rigoureux pour l'AI.