Le Wall Street Journal a pu visionner des documents internes et a rencontré des dizaines d'(ex-)employés à propos de XCheck ('cross check'). Un programme par lequel des personnes jouissant d'un certain statut bénéficient d'une exception aux règles en vigueur chez Facebook. La liste compte aujourd'hui quelque 5,8 millions de personnes dans le monde entier.

Quiconque lance aujourd'hui un appel à la violence, comme l'a fait l'ex-président américain Trump, ou poste des images d'une femme nue (qui plus est sans autorisation), à l'instar du footballeur brésilien Neymar en 2019, est en général suspendu temporairement ou définitivement, et le contenu en question est supprimé. Dans le cas de Trump, le contenu fut à plusieurs reprises maintenu et dans celui de Neymar, il fallut attendre au moins 24 heures, avant que Facebook n'entreprenne une action (par des modérateurs situés plus haut dans la hiérarchie).

Il ne s'agit là que de deux exemples des nombreux effets provoqués par XCheck, un programme, dont Facebook a dissimulé l'existence aux législateurs et autres régulateurs, mais aussi à son propre Oversight Board indépendant. Les conséquences ne sont pas des moindres. Dans le cas de la photo de nu, 56 millions d'utilisateurs ont découvert cette femme à laquelle on n'avait pas demandé l'autorisation. A l'inverse, des photographes inconnus se sont fait rapidement suspendre un mois durant pour avoir posté une photo découvrant un demi-téton.

Ce favoritisme exerce aussi un sérieux impact: des messages prétendant que les vaccins sont mortels - pourtant infirmés par les vérificateurs de faits de Facebook - passent sans problème, s'ils sont partagés par certaines personnalités. Des documents visionnés par le Wall Street Journal à propos d'une révision interne du programme évoquent 'une rupture de confiance'. 'Nous ne faisons pas ce que nous disons que nous faisons', déclare Facebook même. Mais le programme n'est pour autant pas encore complètement interrompu.

Protection de l'image

Pourquoi donc Facebook protège-t-elle ces profils? La réponse se trouve tant dans l'image même du réseau social que dans son impossibilité de contrôler tout en profondeur.

Depuis le départ, Facebook est aux prises avec sa propre popularité. Dès qu'un grand nombre de personnes partagent des photos, vidéos et messages, il lui appartient d'effectuer un travail de modération à la fois rapide et efficient, afin que du contenu cruel comme des vidéos de décapitation, de pédophilie ou de traite d'êtres humains puisse être détecté. Mais il convient de s'opposer aussi aux menaces. Toutes des choses qui font peut-être l'objet de rapports, mais qui sont tellement nombreuses qu'il est impossible de les contrôler toutes par des modérateurs humains. Facebook recourt par conséquent aussi à l'intelligence artificielle, mais celle-ci n'est pas infaillible non plus.

Une deuxième raison est liée à l'image même de Facebook. XCheck a entre autres été introduit pour éviter que des VIP soient trop rapidement sanctionnés, ce qui du fait de leur aura pourrait faire en sorte que Facebook apparaisse sous un jour sombre. Quiconque se montre trop curieux, influent, populaire ou 'PR risky', peut par conséquent se permettre plus de choses. Des messages rapportés par ce genre de personne sont 'pardonnés' dans le meilleur des cas, voire dans le pire des cas transférés vers des modérateurs plus expérimentés, avant d'être supprimés par la suite.

Indéfendable

Dans des documents internes, Facebook indique elle-même que le système n'est en réalité pas défendable. Ils démontrent en outre que Facebook est parfaitement au courant des nombreux problèmes sur sa plate-forme. Toutes des choses, à propos desquelles l'entreprise disait pourtant à chaque fois tomber des nues ces dernières années et promettait de les adapter.

Le Wall Street Journal a pu visionner des documents internes et a rencontré des dizaines d'(ex-)employés à propos de XCheck ('cross check'). Un programme par lequel des personnes jouissant d'un certain statut bénéficient d'une exception aux règles en vigueur chez Facebook. La liste compte aujourd'hui quelque 5,8 millions de personnes dans le monde entier.Quiconque lance aujourd'hui un appel à la violence, comme l'a fait l'ex-président américain Trump, ou poste des images d'une femme nue (qui plus est sans autorisation), à l'instar du footballeur brésilien Neymar en 2019, est en général suspendu temporairement ou définitivement, et le contenu en question est supprimé. Dans le cas de Trump, le contenu fut à plusieurs reprises maintenu et dans celui de Neymar, il fallut attendre au moins 24 heures, avant que Facebook n'entreprenne une action (par des modérateurs situés plus haut dans la hiérarchie).Il ne s'agit là que de deux exemples des nombreux effets provoqués par XCheck, un programme, dont Facebook a dissimulé l'existence aux législateurs et autres régulateurs, mais aussi à son propre Oversight Board indépendant. Les conséquences ne sont pas des moindres. Dans le cas de la photo de nu, 56 millions d'utilisateurs ont découvert cette femme à laquelle on n'avait pas demandé l'autorisation. A l'inverse, des photographes inconnus se sont fait rapidement suspendre un mois durant pour avoir posté une photo découvrant un demi-téton.Ce favoritisme exerce aussi un sérieux impact: des messages prétendant que les vaccins sont mortels - pourtant infirmés par les vérificateurs de faits de Facebook - passent sans problème, s'ils sont partagés par certaines personnalités. Des documents visionnés par le Wall Street Journal à propos d'une révision interne du programme évoquent 'une rupture de confiance'. 'Nous ne faisons pas ce que nous disons que nous faisons', déclare Facebook même. Mais le programme n'est pour autant pas encore complètement interrompu.Pourquoi donc Facebook protège-t-elle ces profils? La réponse se trouve tant dans l'image même du réseau social que dans son impossibilité de contrôler tout en profondeur.Depuis le départ, Facebook est aux prises avec sa propre popularité. Dès qu'un grand nombre de personnes partagent des photos, vidéos et messages, il lui appartient d'effectuer un travail de modération à la fois rapide et efficient, afin que du contenu cruel comme des vidéos de décapitation, de pédophilie ou de traite d'êtres humains puisse être détecté. Mais il convient de s'opposer aussi aux menaces. Toutes des choses qui font peut-être l'objet de rapports, mais qui sont tellement nombreuses qu'il est impossible de les contrôler toutes par des modérateurs humains. Facebook recourt par conséquent aussi à l'intelligence artificielle, mais celle-ci n'est pas infaillible non plus.Une deuxième raison est liée à l'image même de Facebook. XCheck a entre autres été introduit pour éviter que des VIP soient trop rapidement sanctionnés, ce qui du fait de leur aura pourrait faire en sorte que Facebook apparaisse sous un jour sombre. Quiconque se montre trop curieux, influent, populaire ou 'PR risky', peut par conséquent se permettre plus de choses. Des messages rapportés par ce genre de personne sont 'pardonnés' dans le meilleur des cas, voire dans le pire des cas transférés vers des modérateurs plus expérimentés, avant d'être supprimés par la suite.Dans des documents internes, Facebook indique elle-même que le système n'est en réalité pas défendable. Ils démontrent en outre que Facebook est parfaitement au courant des nombreux problèmes sur sa plate-forme. Toutes des choses, à propos desquelles l'entreprise disait pourtant à chaque fois tomber des nues ces dernières années et promettait de les adapter.