Le Content Transparency Report est un nouveau rapport de Facebook, qui permet de visualiser le contenu le plus populaire des trois derniers mois. Il s'agit là d'une tentative de la part de Facebook de se montrer plus ouvert au moment où le réseau se voit souvent reprocher d'être un collecteur de fausses informations et d'autres déchets en ligne.

Or il s'est vite avéré que Facebook ne disait pas toute la vérité. C'est ainsi que le New York Times a découvert qu'un premier rapport du début de cette année, n'avait pas été publié après un débat interne. Alex Schultz, directeur du marketing, aurait en effet affirmé que ce rapport pouvait nuire à l'image de Facebook. C'est ainsi que l'article le plus regardé portait sur un médecin qui décéda peu après avoir été vacciné contre le corona, alors qu'un canal d'infos d'extrême-droite figurait aussi dans le top vingt.

Un porte-parole de Facebook déclare sur Twitter que le rapport n'a pas été publié, parce que des modifications devaient encore être apportées au système. On ignore de quels changements il était question. Aujourd'hui, Facebook a bel et bien publié l'ancien rapport, et les affirmations du New York Times semblent se vérifier.

Peu significatif

Assez ironiquement, Facebook ne voulait donc pas être transparente à propos d'un rapport de... transparence. Le fait est cependant que le nouveau rapport de transparence est lui aussi critiqué. Brian Boland, jusqu'il y a un an vicepresident product marketing chez Facebook, énumère en effet un certain nombre d'erreurs.

C'est ainsi que les liens les plus populaires par trimestre sont affichés, ce qui plaide en faveur de ceux qui sont connus depuis longtemps, mais le rapport dissimule par contre des éléments qui ont obtenu des scores très élevés quelques jours seulement. Le rapport ne se limite actuellement qu'aux Etats-Unis. Les 20 liens les plus populaires sont cités, mais ne représentent que 0,057 pour cent de l'ensemble des vues. En même temps, Facebook révèle les domaines les plus populaires avec YouTube tout en haut, mais cela est peu significatif des vidéos de YouTube circulant sur Facebook.

Facebook ment assez souvent

Tout semble indique que dans sa tentative d'être plus transparente, Facebook se montre très sélective dans ce qui est vraiment transparent. En postposant d'une certaine manière un rapport, certaines choses sont exposées de manière plus sélective. C'est en soi une pratique assez courante chez Facebook. Dans le passé, l'entreprise est en effet parvenue à présenter par la suite des fuites de données qu'elle avait elle-même causées comme quelque chose contre laquelle elle prend des mesures.

Mais l'entreprise a précédemment aussi menti à des annonceurs en gonflant des statistiques de vidéos publicitaires. Elle fit pour cela référence à une 'erreur de calcul récemment découverte', mais des documents judiciaires ont ensuite démontré que l'entreprise était au courant depuis longtemps déjà.

Il est par conséquent important d'insister sur le fait qu'aucun contrôle externe n'est effectué sur les rapports. En d'autres mots, Facebook peut continuer d'affirmer au monde entier que ses utilisateurs regardent surtout des communiqués postés par... Unicef, puisqu'aucune certitude n'est donnée qu'il en est bien ainsi, tout en sachant que Facebook a la réputation de mentir, de déformer les choses et, comme avec ce rapport, de passer sous silence un élément qui pourrait lui nuire.

Le Content Transparency Report est un nouveau rapport de Facebook, qui permet de visualiser le contenu le plus populaire des trois derniers mois. Il s'agit là d'une tentative de la part de Facebook de se montrer plus ouvert au moment où le réseau se voit souvent reprocher d'être un collecteur de fausses informations et d'autres déchets en ligne.Or il s'est vite avéré que Facebook ne disait pas toute la vérité. C'est ainsi que le New York Times a découvert qu'un premier rapport du début de cette année, n'avait pas été publié après un débat interne. Alex Schultz, directeur du marketing, aurait en effet affirmé que ce rapport pouvait nuire à l'image de Facebook. C'est ainsi que l'article le plus regardé portait sur un médecin qui décéda peu après avoir été vacciné contre le corona, alors qu'un canal d'infos d'extrême-droite figurait aussi dans le top vingt.Un porte-parole de Facebook déclare sur Twitter que le rapport n'a pas été publié, parce que des modifications devaient encore être apportées au système. On ignore de quels changements il était question. Aujourd'hui, Facebook a bel et bien publié l'ancien rapport, et les affirmations du New York Times semblent se vérifier.Assez ironiquement, Facebook ne voulait donc pas être transparente à propos d'un rapport de... transparence. Le fait est cependant que le nouveau rapport de transparence est lui aussi critiqué. Brian Boland, jusqu'il y a un an vicepresident product marketing chez Facebook, énumère en effet un certain nombre d'erreurs.C'est ainsi que les liens les plus populaires par trimestre sont affichés, ce qui plaide en faveur de ceux qui sont connus depuis longtemps, mais le rapport dissimule par contre des éléments qui ont obtenu des scores très élevés quelques jours seulement. Le rapport ne se limite actuellement qu'aux Etats-Unis. Les 20 liens les plus populaires sont cités, mais ne représentent que 0,057 pour cent de l'ensemble des vues. En même temps, Facebook révèle les domaines les plus populaires avec YouTube tout en haut, mais cela est peu significatif des vidéos de YouTube circulant sur Facebook.Tout semble indique que dans sa tentative d'être plus transparente, Facebook se montre très sélective dans ce qui est vraiment transparent. En postposant d'une certaine manière un rapport, certaines choses sont exposées de manière plus sélective. C'est en soi une pratique assez courante chez Facebook. Dans le passé, l'entreprise est en effet parvenue à présenter par la suite des fuites de données qu'elle avait elle-même causées comme quelque chose contre laquelle elle prend des mesures.Mais l'entreprise a précédemment aussi menti à des annonceurs en gonflant des statistiques de vidéos publicitaires. Elle fit pour cela référence à une 'erreur de calcul récemment découverte', mais des documents judiciaires ont ensuite démontré que l'entreprise était au courant depuis longtemps déjà.Il est par conséquent important d'insister sur le fait qu'aucun contrôle externe n'est effectué sur les rapports. En d'autres mots, Facebook peut continuer d'affirmer au monde entier que ses utilisateurs regardent surtout des communiqués postés par... Unicef, puisqu'aucune certitude n'est donnée qu'il en est bien ainsi, tout en sachant que Facebook a la réputation de mentir, de déformer les choses et, comme avec ce rapport, de passer sous silence un élément qui pourrait lui nuire.