Un ex-employé de Meta: ‘Facebook et Instagram en font trop peu pour assurer la sécurité des enfants’
Devant une commission du Sénat américain, un ancien employé de Meta a témoigné que l’entreprise savait très bien à quel point Facebook et Instagram sont nocifs pour les jeunes. Il a affirmé que l’entreprise n’a pas pris de mesures pour mieux les protéger.
Arturo Bejar a travaillé sur le bien-être chez Instagram de 2019 à 2021. Auparavant, il fut director of engineering de l’équipe Protect and Care de Facebook entre 2009 et 2015. Il a fait ses déclarations devant une commission en charge de la protection de la vie privée, de la technologie et de la législation du Sénat américain, en particulier lors d’une session sur la santé mentale des jeunes, qui fait maintenant l’objet de l’élaboration d’une loi aux Etats-Unis.
Bejar ne révèle aucune nouvelle information en soi, mais confirme que Meta savait chaque fois à quel point ses plates-formes sont nocives, et n’a pas pris suffisamment de mesures pour y remédier.
Bejar déclare par exemple que lorsqu’il travaillait pour Meta, il avait parlé à plusieurs reprises du sujet avec la direction de l’entreprise, y compris avec le CEO Mark Zuckerberg, et qu’ils l’avaient soutenu dans son travail. Mais à chaque fois, la décision était prise de ne pas s’attaquer aux problèmes en question.
Approche sexuelle indésirable
Bejar a également été en mesure de chiffrer ces problèmes. 51 pour cent des utilisateurs d’Instagram ont vécu une expérience indésirable au cours des sept derniers jours, selon un courriel interne datant de 2021. De ce groupe, 24,4 pour cent de tous les jeunes de 13 à 15 ans ont fait l’objet d’avances sexuelles non désirées sur Instagram. Selon l’agence Reuters, Bejar a également déclaré lors de son témoignage que sa propre fille de 16 ans avait reçu des commentaires misogynes et des photos obscènes, sans qu’Instagram ne dispose des outils appropriés pour signaler ces mauvaises expériences à l’entreprise afin que quelque chose puisse être entrepris.
L’argument de Bejar se résume au fait que Meta savait très bien à quel point ses plates-formes sont dangereuses, mais qu’elle n’a pas dégagé suffisamment de ressources pour s’y attaquer. L’entreprise connaissait les chiffres, mais n’a pas réagi comme il fallait.
Meta nuance, une fois de plus
Meta, quant à elle, déclare dans un communiqué adressé à Reuters qu’elle s’engage à protéger les jeunes en ligne et se réfère entre autres à ses outils existants pour signaler les contenus préjudiciables. ‘Chaque jour, d’innombrables personnes, tant à l’intérieur qu’à l’extérieur de Meta, s’efforcent d’assurer la sécurité des jeunes en ligne. Ce travail se poursuit’, indique l’entreprise.
C’est là la réponse que Meta donne à chaque fois qu’on lui reproche de ne prendre pratiquement aucune mesure contre les abus. Dès 2021, le Wall Street Journal a pu consulter des communications internes indiquant que l’entreprise savait qu’Instagram donnait aux adolescentes une image peu avenante d’elles-mêmes, en ce compris des troubles de l’alimentation et des tendances suicidaires. L’entreprise a gardé le silence à ce sujet vis-à-vis du monde extérieur, jusqu’à ce que ces faits soient rendus publics par le journal.
C’est ainsi qu’il y a eu de nombreux incidents ces dernières années. Tels des arnaques ou de la haine présentes sur la plate-forme, souvent sous la forme de publicités payantes. Meta gagne donc de l’argent ‘grâce’ aux contenus préjudiciables contre lesquels elle prétend lutter. Chaque fois qu’elle aborde le sujet, Facebook déclare qu’elle travaille dur au niveau de la sécurité et agite des chiffres sur les faux comptes supprimés et autres soi-disant mesures. Parallèlement il y a de fortes chances pour que quiconque ouvre Facebook, soit le témoin d’une nouvelle tentative de fraude.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici