Le chercheur en algorithmes Yves Punie (ECAT): ‘L’époque du Far West sur les médias sociaux est révolue’
Comment brider les messages nuisibles et les fausses nouvelles sur les médias sociaux? Voilà la question qui taraude Yves Punie. Ce Belge co-dirige un groupe d’experts européens qui s’intéressent pour la première fois à la façon dont les grandes plates-formes de médias sociaux telles que Facebook, TikTok et X monopolisent notre attention et proposent ce que nous découvrons en ligne.
Yves Punie est Deputy Head auprès de l’European Centre for Algorithmic Transparency (ECAT). Il s’agit là d’un groupe de quelque 35 psychologues, spécialistes de l’IA, ingénieurs logiciels, juristes et autres chercheurs ayant accès à la salle au trésor des entreprises de médias sociaux: les algorithmes responsables de ce que nous voyons apparaître sur Facebook, Google, X, YouTube et TikTok.
Internet doit devenir un endroit sûr pour tout un chacun.
Yves Punie
L’équipe y parvient grâce au Digital Services Act (DSA), une loi européenne qui protège les utilisateurs contre les contenus dangereux et illégaux sur les plates-formes de plus de 45 millions d’usagers européens. Cette loi contraint les géants des médias sociaux à être transparents sous peine d’amendes financières. En sa qualité de chercheur social, Punie examine, conjointement avec ses collègues à Bruxelles, Séville et Ispra (Italie) la façon dont fonctionnent les algorithmes, sur la base desquels ils promotionnent des messages ou vidéos, quel rôle ils jouent dans la désinformation et comment ils ciblent certains groupes vulnérables. Le but: faire d’internet un endroit sûr.
Yves Punie: ‘Le Digital Services Act protège les droits fondamentaux des internautes et se focalise sur le contenu dangereux et nuisible. Pensez ici au racisme, à l’incitation à la violence, à la pédopornographie, aux messages qui enfreignent les droits fondamentaux de l’homme ou qui menacent la sécurité des minorités ou le bien-être physique des enfants et des jeunes. Chez ECAT, nous examinons le rôle que jouent les algorithmes dans la diffusion de ce genre de contenus. Nous ne sommes du reste pas seuls à ce faire. Nous collaborons en effet avec des scientifiques et des chercheurs dans le monde entier, afin de comprendre les effets des algorithmes et de collecter des preuves empiriques démontrant qu’il y a effectivement un sérieux danger. Nous collaborons également avec DG Connect, le département de la Commission européenne qui contrôle le respect de la loi et qui va pouvoir démarrer une enquête sur base des informations que nous lui transmettons. Notre travail porte ses fruits. Plusieurs plates-formes ont modifié leurs algorithmes ces derniers mois. Elles s’efforcent aussi davantage d’identifier et de supprimer tout contenu illégal.’
Toutes les plates-formes de médias sociaux collaborent-elles aussi bien?
Punie: ‘Les unes plus que les autres, mais le DSA les oblige à le faire. Nous disposons d’un argument de poids: si des entreprises font la sourde oreille, l’Europe peut leur infliger une amende qui peut atteindre six pour cent de leur chiffre d’affaires. Dans certains cas, par exemple lorsqu’il existe un risque majeur pour la sécurité, la Commission européenne peut même décider d’interrompre temporairement les plates-formes’.
Qu’en est-il d’Elon Musk, adversaire notoire de différentes restrictions?
‘Nous connaissons la position de Musk, mais il n’a pas le choix. Même si c’est parfois à contre-coeur. Conjointement avec TikTok et AliExpress, X est l’une des entreprises à l’encontre desquelles l’Europe a lancé une procédure, parce qu’elles ne fournissent pas suffisamment d’efforts pour garantir la protection des droits fondamentaux. Reste à savoir où tout cela va nous mener. Musk a déjà menacé de retirer X d’Europe. C’est sa décision. S’il veut être actif en Europe, il doit suivre la loi européenne. C’est du reste l’une des raisons de l’arrivée du Digital Services Act: nous ne voulons pas que les grandes et puissantes plates-formes internationales déterminent la façon dont nous protégeons nos valeurs en Europe.’
Les algorithmes que vous examinez, n’accroissent-ils pas souvent le risque de messages nuisibles et extrêmes?
‘Tout contenu qu’on voit apparaître sur internet, est l’affaire de l’intelligence artificielle et d’algorithmes. Ce qui nous est présenté à vous et à moi, diffère sur base du profil que les médias sociaux créent de nous. Mais les algorithmes et les données sur lesquels ils se basent, sont partiaux. Il en résulte de la discrimination et certains utilisateurs qui voient apparaître des messages toujours plus extrêmes. Nous voulons y remédier. Nous testons les algorithmes, par exemple en créant le profil d’une fillette de douze ans anorexique et en visionnant les messages qu’elle reçoit. Cela peut être du contenu illégal ou des informations potentiellement nuisibles pour elle. Nous collectons toutes ces données, les présentons aux plates-formes et leur expliquons ce qu’elles doivent faire pour garantir la protection.’
La loi touche à la liberté d’expression. C’est là matière à discussion y compris en Europe.
‘Nous sommes conscients que c’est un sujet sensible pour certaines personnes, mais il serait irresponsable de ne pas introduire de règles. Ce qui est illégal dans le monde physique, doit l’être aussi dans le monde virtuel. Je compare la situation avec celle de la circulation routière: il y a là aussi des règles permettant de garantir la sécurité. Le DSA fait bouger les choses dans notre perception du contenu en ligne. Avant, nous vivions en plein Far West, alors qu’aujourd’hui, il y a des règles destinées à veiller à ce que nous ayons un internet sûr pour tout un chacun.’
Nombre de messages sur les médias sociaux ciblent les émotions et la controverse. Sera-ce moins le cas grâce au Digital Services Act?
‘En partie oui, si les messages contribuent aux risques stipulés par le DSA. Si certains messages menacent par exemple le bien-être mental d’enfants et de jeunes, ils devront être rejetés autant que possible.’
Un autre obstacle majeur, surtout à l’approche des élections, c’est la crainte de l’influence étrangère et des fausses nouvelles.
‘La désinformation représente peut-être le plus important défi auxquels nous sommes confrontés en ligne. Des millions de faux messages y circulent. Les outils pour les créer et les propager sont plus nombreux et simples d’utilisation que jamais. Le Digital Services Act n’exerce évidemment en soi pas d’influence sur l’éventail de fausses nouvelles, mais bien sur la façon dont nous tentons de les contrer et de les éviter. En examinant le rôle que les algorithmes y jouent, nous voulons nous y opposer.’
‘Le Digital Services Act oblige les plates-formes à protéger l’intégrité des élections et à veiller à ce que les informations en la matière soient correctes. La Commission européenne a élaboré pour ce faire trente à quarante directives pour avant, pendant et après les élections. Les firmes de médias sociaux doivent créer des équipes électorales spécifiques ayant une connaissance de la situation locale par pays. Elles doivent aussi tenter de renvoyer vers des informations officielles vérifiées et collaborer avec des organisations de la société civile, ONG et acteurs politiques. Elles se voient du reste proposer pas mal d’instruments pour protéger l’intégrité des élections.’
Selon vous, le combat contre les fausses nouvelles n’est pas encore perdu?
‘Nous nous trouvons devant une énorme tâche, c’est clair. A cause de la guerre en Ukraine et à Gaza, nous sommes dans une situation géopolitique qui rend les choses encore plus pénibles. La Russie est très active dans la diffusion de fausses nouvelles, dans le but de déstabiliser la société européenne. L’Europe tente de jouer son rôle en obligeant les plates-formes à prendre leurs responsabilités, mais il est important que toutes les parties concernées apportent leur pierre à l’édifice. Je pense que nous devons créer un écosystème dans lequel divers acteurs collaboreront pour rendre possible un internet plus sûr. L’enseignement, par exemple, s’avère tout aussi essentiel. Il nous faut veiller à ce que les gens soient mieux formés au numérique, afin qu’ils puissent mieux faire face aux fausses nouvelles et autres messages nuisibles. Les ONG et les acteurs sociaux en général doivent aussi assumer leur rôle. Nous collaborons aussi étroitement avec eux.’
‘J’estime qu’on peut être fier de ce que fait l’Europe. D’autres régions dans le monde élaborent aussi des règles pour les médias sociaux, mais nous sommes les premiers à le faire de manière systématique. Notre travail ne s’arrête pas non plus. Nous sommes continuellement en train de surveiller les médias sociaux et leur mode de fonctionnement. La façon dont l’Europe les réglemente, doit co-évoluer. Un thème important sera par exemple à l’avenir le fait que les messages générés par l’intelligence artificielle doivent faire l’objet d’un label. Au sein de l’Europe, les plates-formes devront signifier pour certaines vidéos ou messages qu’elles/ils n’ont pas été vérifiés par l’IA. C’est là un travail énorme. Les plates-formes de médias sociaux recourent à des algorithmes complexes et à l’intelligence artificielle qui apprend d’elle-même et évolue au quotidien, mais nous disposons de pas mal d’expertise et d’organisations avec qui nous collaborons.’
Ces 19 firmes technologiques seront soumises à une législation européenne plus stricte
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici