Une étude, qui doit encore être publiée, a été effectuée par des chercheurs de la New York University et de l'Université Grenoble Alpes en France, a pu être visionnée par le Washington Post. Elle a toutefois déjà été évaluée par ses pairs.

Les chercheurs ont comparé des messages postés entre août 2020 et janvier 2021 de sources fiables telles CNN ou l'ONU, avec une liste de 2.551 pages d'organisations connues pour diffuser régulièrement de la désinformation.

Il en ressort que cette dernière a fait l'objet de six fois plus de 'j'aime', de partage et d'interactions sur Facebook que les messages de l'autre catégorie. L'étude confirme ainsi partiellement des affirmations et enquêtes antérieures, selon lesquelles des messages de désinformation sont souvent 'récompensés' par une plus grande visibilité sur Facebook.

Gauche vs droite

Les chercheurs constatent que Facebook ne semble pas avoir de préférence politique dans ce qui génère plus d'interactions. Tant les messages de désinformation orientés gauche ou droite ont fait l'objet de davantage d'engagement que l'actualité bien réelle.

Mais les pages orientées à droite sur Facebook publient plus souvent des informations trompeuses que le reste du spectre politique, selon les chercheurs. Dans une autre enquête, on avait précédemment déjà observé le même phénomène, entre autres à propos des élections de mi-mandat en 2018.

Facebook nuance

Chez Facebook même, on déclare au Washington Post que l'entreprise s'oppose activement aux fausses nouvelles, notamment en collaborant avec ce qu'on appelle des 'factcheckers' (vérificateurs de faits) au niveau mondial. Et ce, même si un message n'est qualifié de désinformation que quelques jours ou semaines plus tard.

La plate-forme nuance également le fait que les 'j'aime' ou les réactions ne correspondent pas au nombre de personnes qui lisent le message. 'Si vous considérez le contenu qui obtient la plus large audience sur Facebook, ce n'est pas ce que l'étude suggère', déclare un porte-parole de l'entreprise au journal américain.

Chiche en données

En ce qui nous concerne, il nous faut apporter la nuance, selon laquelle Facebook ne limite pas la désinformation politique, mais aussi que l'entreprise se montre elle-même très chiche en données sur le nombre de personnes qui cliquent sur les messages, et filtre strictement le peu de données à ce propos.

C'est ainsi que Facebook a récemment émis un rapport de transparence, alors qu'il est apparu qu'elle avait empêché la sortie d'un précédent rapport au tout dernier moment. Dans ce dernier rapport qui finit quand même par paraître, on trouve entre autres un top vingt des liens les plus visionnés, mais comme il est question d'une période de trois mois, cela ne dit rien sur les messages qui s'avèrent brièvement très populaires. C'est ainsi que le top vingt ne représente que 0,057 pour cent de tout le contenu sur Facebook, soit une fraction du total.

Facebook est du reste très chiche pour ce qui est de partager des données avec les chercheurs. C'est ainsi que la firme a même bloqué des scientifiques qui effectuaient des recherches sur des annonces sur Facebook, ce qu'elle avait précédemment déjà fait pour un projet européen. Facebook déclare donc d'une part que les affirmations dans l'étude ne correspondent pas à la réalité. Mais en même temps, la firme fait tout ce qu'elle peut pour réduire autant que possible l'accès des scientifiques aux données de recherche.

Une étude, qui doit encore être publiée, a été effectuée par des chercheurs de la New York University et de l'Université Grenoble Alpes en France, a pu être visionnée par le Washington Post. Elle a toutefois déjà été évaluée par ses pairs.Les chercheurs ont comparé des messages postés entre août 2020 et janvier 2021 de sources fiables telles CNN ou l'ONU, avec une liste de 2.551 pages d'organisations connues pour diffuser régulièrement de la désinformation.Il en ressort que cette dernière a fait l'objet de six fois plus de 'j'aime', de partage et d'interactions sur Facebook que les messages de l'autre catégorie. L'étude confirme ainsi partiellement des affirmations et enquêtes antérieures, selon lesquelles des messages de désinformation sont souvent 'récompensés' par une plus grande visibilité sur Facebook.Les chercheurs constatent que Facebook ne semble pas avoir de préférence politique dans ce qui génère plus d'interactions. Tant les messages de désinformation orientés gauche ou droite ont fait l'objet de davantage d'engagement que l'actualité bien réelle.Mais les pages orientées à droite sur Facebook publient plus souvent des informations trompeuses que le reste du spectre politique, selon les chercheurs. Dans une autre enquête, on avait précédemment déjà observé le même phénomène, entre autres à propos des élections de mi-mandat en 2018.Chez Facebook même, on déclare au Washington Post que l'entreprise s'oppose activement aux fausses nouvelles, notamment en collaborant avec ce qu'on appelle des 'factcheckers' (vérificateurs de faits) au niveau mondial. Et ce, même si un message n'est qualifié de désinformation que quelques jours ou semaines plus tard.La plate-forme nuance également le fait que les 'j'aime' ou les réactions ne correspondent pas au nombre de personnes qui lisent le message. 'Si vous considérez le contenu qui obtient la plus large audience sur Facebook, ce n'est pas ce que l'étude suggère', déclare un porte-parole de l'entreprise au journal américain.En ce qui nous concerne, il nous faut apporter la nuance, selon laquelle Facebook ne limite pas la désinformation politique, mais aussi que l'entreprise se montre elle-même très chiche en données sur le nombre de personnes qui cliquent sur les messages, et filtre strictement le peu de données à ce propos.C'est ainsi que Facebook a récemment émis un rapport de transparence, alors qu'il est apparu qu'elle avait empêché la sortie d'un précédent rapport au tout dernier moment. Dans ce dernier rapport qui finit quand même par paraître, on trouve entre autres un top vingt des liens les plus visionnés, mais comme il est question d'une période de trois mois, cela ne dit rien sur les messages qui s'avèrent brièvement très populaires. C'est ainsi que le top vingt ne représente que 0,057 pour cent de tout le contenu sur Facebook, soit une fraction du total.Facebook est du reste très chiche pour ce qui est de partager des données avec les chercheurs. C'est ainsi que la firme a même bloqué des scientifiques qui effectuaient des recherches sur des annonces sur Facebook, ce qu'elle avait précédemment déjà fait pour un projet européen. Facebook déclare donc d'une part que les affirmations dans l'étude ne correspondent pas à la réalité. Mais en même temps, la firme fait tout ce qu'elle peut pour réduire autant que possible l'accès des scientifiques aux données de recherche.