La misère vue par un modérateur de Facebook
Chaque vidéo, photo ou statut rapporté sur Facebook est contrôlé par un modérateur. Mais ce job exige surtout d’avoir le coeur bien accroché tant on est confronté à la misère et à du grand n’importe quoi qu’il faut ensuite approuver ou non.
Le journal néerlandais de Volkskrant dresse un intéressant portrait d’un Néerlandais qui a travaillé huit mois durant pour Facebook à Berlin. Il était chargé de juger les ‘posts’, mais il a fini par renoncer, tout comme beaucoup d’autres, en raison de l’énorme quantité de contenus à tout le moins inquiétants à laquelle il était confronté. La firme ne propose en outre guère d’assistance psychologique.
De Volkskrant a interviewé l’homme de manière anonyme, mais a contrôlé ses dires auprès d’un second modérateur. C’est qu’il ne pouvait même pas parler de son travail avec sa famille et ses amis, qu’il devait ranger son GSM et qu’il disposait en général de 12 secondes pour prendre une décision sur chaque post rapporté (ignorer, supprimer, en référer à son supérieur, aller de l’avant ou le marquer comme sensible/atroce).
L’interview de cet homme nous apprend que Facebook utilise différents niveaux. C’est ainsi qu’il faut intervenir plus sévèrement avec les ‘catégories protégées’ telles les femmes, les Juifs ou les transgenres, mais il y a aussi des ‘catégories quasi protégées’, dont font partie les migrants et les demandeurs d’asile entre autres. A l’encontre de ceux-ci, un peu plus de haine est tolérée, avant que Facebook n’intervienne. Mais cela s’applique surtout, si tout un groupe est pris à parti. En cas d’attaques contre des femmes individuelles, des personnes gravement malades, des transgenres, des réfugiés et, à coup sûr, des personnes publiques, Facebook s’en tient plutôt à la liberté d’expression.
Le job en soi n’a rien d’une partie de plaisir. Erik, comme l’appelle de Volkskrant, gagnait 8,9 euros de l’heure, soit 1.500 euros par mois. En contrepartie, chaque modérateur devait se farcir quelque 1.800 rapportages par jour, idéalement de manière correcte à 98%. Des réunions de partis d’extrême-droite, des élections ou l’arrivée de Saint-Nicolas sont autant d’incitants à du contenu incongru sur Facebook.
Contenu très traumatisant, quasiment pas d’assistance
Mais cela va nettement au delà des propos haineux. Erik a dû aussi se prononcer sur des pourriels (spam), des posts de terreur, des décapitations dans des vidéos pour enfants, de la pédopornographie, et bien d’autres contenus atroces. La plupart de ces posts avaient pour origine des rapportages d’utilisateurs, dont une petite partie (en croissance toutefois) est détectée par l’AI de Facebook, avant d’être contrôlée par un modérateur.
Dans son entretien avec le journal, Erik laisse entendre que Facebook n’offre quasiment pas de support. Il y a un seul psychologue, un seul travailleur social et un seul gestionnaire du bien-être pour quelque 700 modérateurs à Berlin (7.500 au niveau mondial). Mais dans la pratique, leur rôle se limite principalement à fournir des explications sur des cours de yoga, et à conseiller de se promener un peu avant de prendre le métro pour rentrer à la maison.
Erik a observé l’impact du visionnement au quotidien des innombrables posts sur Facebook. Lui et ses collègues devaient prendre des antidépresseurs et ingurgiter de l’alcool pour tenir le coup. Ils rentraient parfois en pleurant chez eux pour finalement jeter l’éponge au bout de quelques mois. Lui-même a tenu ‘bon’ pendant huit mois.
De Volkskrant a également pris contact avec Facebook suite à cette interview. L’entreprise affirme que le soutien psychologique est bien suffisant et que l’ambiance au travail est positive.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici