‘L’Europe doit élaborer une loi à propos de l’intelligence artificielle’

© istock
Pieter Van Nuffel Journalist DataNews

L’UE doit veiller à ce que l’intelligence artificielle (AI) soit utilisée de manière éthiquement responsable et ne mette pas en danger notre sécurité, notre confidentialité et notre autonomie. Voilà ce que conseille l’EESC à la Commission européenne. Ce conseil est un premier pas vers une réglementation s’appliquant à l’intelligence artificielle.

Une université parisienne veut utiliser l’AI pour surveiller les étudiants distraits‘, ‘Nest lance une caméra à reconnaissance faciale‘ et ‘Apple prépare une puce AI’. Tout lecteur de ces articles parus cette semaine sur datanews.be peut y voir un dénominateur commun: l’omniprésence de l’intelligence artificielle.

L’AI a connu en peu de temps une croissance fulgurante. La valeur du marché de l’AI est déjà de quelque 664 millions de dollars pour atteindre, selon toute vraisemblance, 38,8 milliards de dollars en 2025. Cette rapide progression va nous imposer d’énormes défis.

Dans ce contexte, nous avons un urgent besoin d’une stratégie au niveau européen. Voilà ce qu’a clairement indiqué le Comité Economique et Social Européen (EESC) dans un avis prodigué à la Commission européenne. Il y milite pour l’élaboration de normes européennes en vue de contrôler l’AI, comme nous en avons déjà pour l’alimentation et les appareils ménagers.

Code éthique

En outre, l’Europe doit fixer un code éthique qui garantisse que les systèmes AI ne vont pas porter atteinte à notre dignité et aux droits de l’homme. “Les humains doivent toujours garder le contrôle sur les machines”, déclare Catelijne Muller, rapporteur de l’EESC. “Nous devons déterminer si, quand et comment l’AI sera utilisée dans notre vie de tous les jours, quelles tâches nous allons confier à l’AI et comment tout cela se fera de manière transparente et éthiquement responsable.”

L’essence même de l’intelligence artificielle, c’est qu’elle apprend par elle-même: les systèmes AI ne reçoivent pas d’instructions d’un programmeur, mais d’eux-mêmes. Cela les rend d’autant plus difficiles à contrôler, et cela complique l’anticipation des effets indésirables de la technologie.

Gras’Alimenter un diable’

Elon Musk avait qualifié l’AI de plus grande menace pour l’humanité. “Nous sommes occupés à alimenter un diable. Je pense toujours plus souvent que nous avons besoin d’une sorte d’organisme qui conserve une vue d’ensemble de la technologie, d’un régulateur qui se charge de surveiller pour que nous ne fassions pas un jour quelque chose de complètement insensé. Cela peut se faire à un niveau national ou international”, avait affirmé l’entrepreneur à l’époque.

GrasRéglementation en chantier?

Il est du reste possible que ce genre d’organisme fasse bientôt son entrée au niveau européen. Chez nous, il est depuis assez longtemps déjà question d’un cadre légal pour la robotique et l’intelligence artificielle. C’est ainsi que le Parlement européen avait en février encore plaider pour équiper les robots d’un bouton ‘kill’ permettant de les désactiver en cas d’urgence.

Cette nouvelle réglementation ne pourra cependant être élaborée qu’après consultation par l’EESC. Celui-ci a spécifié à présent onze domaines, où l’AI pourrait générer des défis sociaux: cela va de l’éthique, la sécurité et la confidentialité jusqu’au travail et à… la guerre. Le fait que l’organe-conseil affirme clairement que l’UE doit veiller à ce que l’AI soit utilisée de manière éthiquement responsable, accélérera assurément l’introduction d’un cadre légal.

Emplois

L’un des onze domaines sur lequel l’AI aura un fort impact, c’est le travail. Selon l’organe-conseil, l’UE devra aussi mettre au point une stratégie en vue de prévoir les conséquences de l’AI sur l’emploi. Sur base d’un rapport de McKinsey, l’EESC signale qu’il est plus plausible que des parties de travail et non pas des emplois complets soient effectuées par l’AI. “Dans ce cas, il appartient à l’enseignement, à l’apprentissage et au recyclage de s’assurer que les travailleurs récoltent les fruits de ces développements et n’en deviennent pas les victimes.”

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire