L’algorithme d’Instagram rassemble les pédophiles

© Getty Images
Pieterjan Van Leemputten

Des chercheurs ont découvert que l’algorithme d’Instagram veille à ce que les comptes qui promotionnent le sexe avec des mineurs d’âge ou proposent ce genre d’images, se trouvent facilement. Ce n’est que suite aux notifications des chercheurs que Meta l’a elle-même découvert.

Des chercheurs de la Stanford University et de l’University of Massachusetts Amherst (toutes deux aux Etats-Unis) tirent la sonnette d’alarme dans le Wall Street Journal. Ils affirment en effet non seulement qu’il y a encore sur Instagram divers fournisseurs de contenu pédopornographique (souvent autoproduit), mais ils constatent aussi que la plate-forme les met quasi automatiquement en contact les uns avec les autres en raison d’un intérêt très ciblé et du fait que certains hashtags n’ont pas été bloqués.

Selon le Wall Street Journal, ces comptes sont souvent invisibles pour le grand public, mais ils se trouvent aisément avec les hashtags ad hoc. Il s’agit souvent de comptes qui sont soi-disant gérés par les enfants/victimes eux-mêmes. Souvent, on n’y trouve pas de nu explicite, mais bien un menu de ce qui est possible, parfois accompagné de prix et parfois même de demandes possibles. Or ce sont là des pratiques qui ne sont en théorie pas tolérées ni par la loi ni par Meta.

Recommandé par l’algorithme

La facilité avec laquelle les comptes échappent au contrôle, ressort aussi du récit de la Canadienne Sarah Adams, qui aborde la maltraitance d’enfants et les dangers de trop partager sur Instagram. Au départ de cette activité, elle est parfois orientée vers ce genre de comptes, mais en les visitant, les gens se voient recommander sur son profil aussi des comptes abordant la maltraitance d’enfants.

Concrètement, les chercheurs ont trouvé 405 fournisseurs d’images autoproduites d’abus sexuels sur des enfants. 112 d’entre eux possédaient conjointement 22.000 suiveurs uniques. Pour être complet, sachez que sur Twitter aussi, 128 de ce type de comptes avaient été identifiés, mais leur nombre était donc moindre et ils n’étaient pas recommandés par Twitter même. En outre, Twitter les aurait aussi supprimés assez rapidement. Pour sa part, TikTok ne pâtirait pas de ce problème.

Un problème connu depuis des années déjà

Meta elle-même déclare au Wall Street Journal que le problème est connu et qu’il existe un groupe de travail interne pour y remédier. ‘Nous recherchons en permanence des façons de nous défendre contre ce genre de comportement’, y déclare-t-on. Il nous faut cependant ici apporter la nuance, selon laquelle Facebook a ces 15 dernières années réagi à chaque scandale en affirmant qu’elle met tout en œuvre pour améliorer la situation.

Le problème n’est pas non plus nouveau. En 2020 notamment, un compte est apparu qui mettait publiquement en exergue des photos de garçons mineurs d’âge très peu vêtus. Initialement, l’entreprise ne voyait aucune raison pour suspendre le compte en question. En 2017 déjà, il y eut des plaintes, parce que la plate-forme sœur Facebook n’en faisait pas assez pour éloigner ce genre de contenu de la plate-forme. Le Wall Street Journal cite lui aussi des situations, où la notification de ce genre de comptes provoque surtout des réactions, selon lesquelles soit il n’est pas possible de visionner toutes les notifications en raison d’un excès de travail, soit les comptes en question n’enfreignent pas les règles. De son côté, Meta déclare que sur les deux dernières années, elle a supprimé 27 réseaux de comptes de pédophiles. Rien qu’en janvier, elle en aurait annulé 490.000 pour infraction à la politique en matière de sécurité enfantine. Il s’agit là de chiffres qui ont de quoi impressionner, mais dans la pratique, il semble malaisé pour Meta de sécuriser son immense plate-forme contre les pédophiles de tous genres.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire