Les Britanniques veulent contraindre les médias sociaux à filtrer l’extrémisme avec un nouvel outil

© Wikipedia
Sebastien Marien Stagiair Data News 

Le gouvernement britannique entend détecter de manière plus efficiente la propagande extrémiste sur les médias sociaux. Il a dans ce but fait développer un nouvel outil et envisage à présent de contraindre les médias sociaux à l’utiliser.

Le ministère britannique de l’intérieur introduit un nouveau programme dans le but d’exclure préventivement l’extrémisme du net. En outre, il envisage d’obliger les sites sociaux, par des moyens juridiques ou non, à appliquer ledit programme.

Rapide et préventif

Selon les Britanniques, le nouvel outil détecte 94 pour cent de la propagande IS avec une précision de 99,99 pour cent. En matière de vidéos, seuls 50 exemplaires sur un million nécessitent encore une évaluation humaine.

En outre, la vitesse est également un atout car l’AI entre en action dès qu’un nouveau contenu est déposé. De cette façon, le département britannique de l’intérieur veut éviter préventivement que des messages extrémistes apparaissent publiquement. Alors que Facebook supprime du contenu incongru de sa plate-forme au moyen d’algorithmes en moyenne au bout de 36 heures, l’outil du ministère britannique fournirait directement un résultat.

Moyens juridiques

Le ministère ne souhaite cependant guère donner de détails sur la façon dont le nouvel outil a vu le jour. Actuellement, il envisage en tout cas de contraindre les médias sociaux d’utiliser le programme. “Nous n’excluons pas de recourir à des moyens juridiques, mais je suis convaincu que l’on pourra se concerter avec les réseaux de socialisation en vue de progresser”, déclare la ministre britannique Amber Rudd à la BBC.

Malgré les résultats de test positifs engrangés par l’outil, il n’a pas convaincu tout le monde. L’organisation britannique en charge du respect de la vie privée Open Rights Group se demande par exemple si c’est une bonne idée que de d’inciter les réseaux sociaux à jouer les arbitres. L’organisation signale aussi que l’outil n’est pas infaillible et qu’il faut encore faire la transparence à propos de qui sera précisément tenu pour responsable en cas d’erreurs de jugement.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire