Facebook, toujours aux prises avec des messages de haine et des fausses infos
Un nouveau reportage effectué en secret montre que même si Facebook modère son contenu, l’entreprise ne respecte malgré tout pas les règles qu’elle s’est elle-même fixées. C’est ainsi que malgré les plaintes, on retrouve encore sur le réseau social des vidéos violentes d’enfants matraités, et tout semble aussi indiquer que des sites d’extrême-droite peuvent enfreindre les règles pour autant qu’ils soient suffisamment populaires.
Facebook éprouve bien des difficultés à avoir une emprise sur sa propre plate-forme. Voilà ce qui ressort d’un reportage du programme Dispatches de la chaîne britannique Channel 4. Dans ce reportage, un journaliste sous couvert se fait embaucher par une entreprise de Dublin, CPL Resources, qui modère des ‘posts’ rapportés pour Facebook. Le reporter y trouve de longues listes d’attente. Le fait qu’être modérateur pour Facebook soit un emploi des plus difficiles, on avait déjà pu le découvrir via un témoignage paru dans le journal néerlandais Volkskrant plus tôt cette année, mais le présent reportage montre que Facebook même ne sait pas très bien où placer la barre. Elle se voit conseiller d’examiner de manière non active si un utilisateur est âgé de moins de treize ans (l’âge minimal pour Facebook), à moins qu’il admette lui-même ne pas avoir l’âge requis.
Il apparaît surtout que Facebook effectue avant tout une modération pour le moins légère. L’une des choses que notre reporter a pu voir durant sa formation, est une vidéo d’un homme qui brutalise un enfant. La vidéo se trouve en ligne depuis 2012 et est utilisée en tant qu’exemple de contenu qui doit rester sur le site avec le label ‘contenu inquiétant’. “Si vous censurez trop, les gens s’intéressent moins à la plate-forme”, explique un modérateur dans le reportage. “Car en fin de compte, le but est de gagner de l’argent.”
Selon le capital-risqueur Roger McNamee, l’un des premiers investisseurs dans Facebook, mais aussi un critique acerbe, la plate-forme dispose de contenus extrêmes, tels des vidéos d’ados en train de se battre, ou des vidéos violentes, mais nécessaires pour son modèle commercial. “Du point de vue de Facebook, c’est là la cocaïne même de son produit”, explique-t-il à Channel 4. “C’est la forme extrême et dangereuse du contenu qui génère les plus fortes réactions.” Mais le vice-président de la stratégie publique de Facebook, Richard Allan, n’est pas d’accord: “Les vidéos choquantes ne nous rapportent plus d’argent. Les gens viennent sur Facebook en pleine confiance pour partager des choses avec leurs amis et leur famille.”
Haine ou non
Amis, famille, mais aussi électeurs! Et c’est peut-être là le sujet le plus controversé abordé par le reportage: la manière dont Facebook traite les pages d’extrême-droite. Le reportage signale par exemple que la page de Tommy Robinson, le leader au lourd casier judiciaire du parti d’extrême-droite English Defence League, n’est pas traitée par des modérateurs, mais directement par Facebook dans le cadre de ce qu’on appelle en jargon le ‘shielded review’ destiné à protéger la page contre des modérateurs trop stricts.
Facebook réagit dans un communiqué posté sur son blog au scandale en déclarant que le ‘shielded review’ a changé de nom en ‘cross check’, et explique qu’il s’agit là d’une procédure où s’applique ‘une deuxième paire d’yeux’ pour les sujets politiquement sensibles. Les pages qui font l’objet d’un ‘cross check’, sont surtout des pages des pouvoirs publics et d’instances d’actualité, mais aussi de quelques groupes politiques.
L’entreprise aborde également la page de Robinson, qui possède 900.000 suiveurs et qui serait protégée en raison de sa popularité. “Nous supprimons du contenu de Facebook, peu importe qui l’a posté, s’il enfreint nos règles”, affirme Richard Allan au journal britannique The Guardian. Normalement, une page est supprimée, si elle contrevient cinq fois aux règles. Et de citer l’exemple de la page du groupe d’extrême-droite Britain First (connu du fait que le président Donald Trump avait retweeté à l’un de ses dirigeants, ce qui entraîna une petite crise internationale). Facebook a supprimé la page en mars de cette année, une semaine après que les leaders du groupe aient été condamnés et incarcérés pour des délits haineux à l’encontre de musulmans.
Modérer, ce n’est pas facile
Plus tôt cette année, Mark Zuckerberg promettait devant le Congrès américain (mais aussi devant le Parlement européen, quoique de façon plus chiche) que son entreprise s’améliorerait dans sa lutte contre l’ingérence politique et les ‘fake news’. Mais ce n’est pas si simple.
Ce que le reportage montre surtout, c’est que Facebook éprouve des difficultés à remplir ses bonnes intentions. La plate-forme, qui possède aujourd’hui deux milliards d’utilisateurs, en a fait des années durant le moins possible pour endiguer la multiplication des ‘posts’ et se voit à présent contrainte de trouver subitement une solution. Or la limite entre la propagande et l’actualité ou entre les ‘hoaxes’ (canulars) et la liberté d’expression semble parfois ténue.
Plus tôt cette semaine, une nouvelle audition au Congrès a montré par exemple que des sites tels Infowars peuvent provisoirement rester en place. Ce dernier est un réseau de droite populaire, qui gagne le plus d’argent avec ses théories du complot. Une fusillade comme celle perpétrée dans l’école primaire Sandy Hook, il y a quelques années, n’avait ainsi pas été présentée par Infowars comme une tragédie, mais comme une manoeuvre politicienne, avec des ‘acteurs de crise’ qui devaient donner aux autorités une excuse pour l’introduction d’une législation plus sévère sur l’usage des armes. L’une des conséquences fut que les survivants firent l’objet d’insultes et de menaces de mort.
Monika Bickert, en charge au niveau mondial de la stratégie utilisateurs chez Facebook, a expliqué au Congrès que Facebook avait supprimé quelques ‘posts’ d’Infowars, mais que la page même ne méritait pas d’être retirée. “S’ils postent suffisamment de contenus qui enfreignent nos règles, la page sera néanmoins supprimée”, a déclaré Bickert, “mais ils n’ont pas encore dépassé ce seuil.” Or personne ne sait clairement où se situe ce seuil.
Sillage politique
Le projet de Facebook d’être tout pour tout le monde signifie que la modération demeure malaisée. Et quand il est question de politique, c’est d’autant plus sensible, tout spécialement pour ce qui est des ‘posts’ de droite. Ici, l’Histoire joue en effet dans un certain sens des tours à Facebook. L’entreprise a en effet la réputation d’avoir des préférences libérales. C’est là une idée alimentée par des témoignages de collaborateurs datant de 2016, lorsque Facebook venait de démarrer son flux de nouvelles. Les infos conservatrices seraient régulièrement mises sous pression. L’accusation, selon laquelle la plate-forme se montre trop stricte vis-à-vis des voix conservatrices, est du reste souvent répétée et l’a même encore été plus tôt cette semaine par le chef de campagne de Donald Trump. Il en résulte d’une part que Facebook craint à présent d’apparaître comme ‘gauchiste’ et d’autre part qu’elle fait preuve de davantage de circonspection avec les pages conservatrices et de droite, même si on y trouve des textes propageant la haine.
Jusqu’à ce que l’entreprise trouve une limite claire, il faudra se débrouiller. D’abord avec plus de personnes. Dans une réaction au reportage de Channel 4, Facebook répète son projet de doubler le nombre de ses modérateurs pour le porter de 10.000 à 20.000 plus tard cette année. C’est aussi ce que Sheryl Sandberg indiquait en janvier déjà (l’entreprise en disposerait entre-temps de 15.000).
De plus, Facebook semble également devenir petit à petit un peu plus transparente à propos de ce qui est permis ou non sur sa plate-forme. Des années durant, le plus grand secret planait sur le sujet, mais cela change lentement à présent avec entre autres la sortie d’un véritable mode d’emploi.
Et comme toujours, la plate-forme promet cette fois encore des améliorations. “Il est manifeste que quelques éléments apparaissant dans le reportage ne répondent pas à la politique et aux valeurs de Facebook”, prétend Richard Allan. “Là où nous savons que nous avons commis des erreurs, il nous faut les corriger immédiatement. Nous prévoyons des formations complémentaires et faisons de notre mieux pour comprendre ce qui a cloché et comment résoudre les problèmes.”
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici