Un lanceur d’alerte: ‘Instagram n’utilise pas tous les moyens dont elle dispose pour mieux protéger les enfants’

© Thomas Trutschel/Photothek via Getty Images
Pieterjan Van Leemputten

Meta dispose de toutes les ressources et connaissances nécessaires pour rendre Facebook et Instagram plus sûrs pour les adolescents, mais ne les applique pas. Voilà ce qu’affirme un lanceur d’alerte au journal The Guardian.

Ces dernières années, des témoignages de lanceurs d’alerte ou de proches de victimes ont régulièrement fait la une, démontrant que Meta, la firme sous-jacente à Facebook et à Instagram, sait très bien que ses plates-formes publient des contenus préjudiciables aux jeunes, voire les incite au suicide ou à l’automutilation.

Mais cela n’a conduit à aucune mesure significative pour résoudre ce problème, même si, une fois encore, l’entreprise dispose des outils et de la connaissance pour ce faire. Voilà ce qu’affirme Arturo Béjar dans une interview accordée à The Guardian. Béjar s’est profilé comme un lanceur d’alerte fin de l’année dernière et affirme que Meta promet chaque fois beaucoup, mais ne change rien.

Automutilation et cyberharcèlement

Béjar évoque, entre autres, le suicide de Molly Russell (quatorze ans) en 2017. Une enquête a démontré qu’avant de passer à l’acte, elle avait lu des contenus nuisibles sur le suicide, l’automutilation, la dépression et l’anxiété sur Instagram et Pinterest. ‘Si Meta avait tiré les leçons de l’affaire Molly Russell, elle aurait créé des plates-formes sans danger pour les jeunes de 12 à 15 ans.’ Alors même qu’un ado sur douze peut voir comment quelqu’un se mutile ou menace de le faire’, déclare Béjar au Guardian.

Béjar n’a pas été qu’un des dizaines de milliers d’employés ordinaires de Meta. Il a en effet travaillé sur des outils de protection des enfants chez Instagram, y compris des moyens pour lutter contre le cyberharcèlement. Il a quitté l’entreprise en 2015, mais est revenu en 2019 en tant que consultant dans la recherche. Il a alors constaté qu’un enfant sur huit âgé de 12 à 15 ans reçoit des messages à connotation sexuelle indésirables. Une personne sur cinq est victime d’harcèlement, et 8,4 pour cent découvrent des actes d’automutilation.

Ne rien faire: un choix politique 

Il a plaidé en interne pour résoudre ce problème. Instagram pourrait par exemple choisir de signaler plus facilement les contenus indésirables, et interroger régulièrement les utilisateurs à ce sujet.

Meta répète depuis des années déjà dans presque chaque scandale auquel elle est liée – de la fraude électorale aux escroqueries en passant par les contenus préjudiciables que voient les enfants – qu’elle prend des mesures et continue d’œuvrer pour rendre ses plates-formes plus sûres. Mais Béjar n’y croit pas. Il estime que ces changements ne sont pas tant un problème technique qu’un choix politique.

‘L’entreprise a tout ce dont elle a besoin en interne pour agir. Ce qui manque, c’est la volonté et la politique pour affirmer qu’elle va créer un environnement véritablement sûr pour les adolescents, qui soit également mesurable et dont elle doit rendre compte publiquement.’

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire