L'Algorithm Watch berlinois a examiné à l'approche des élections allemandes comment certaines choses apparaissent sur Instagram. L'objectif est de se rendre compte si la plate-forme, qui appartient à Facebook, publie assez souvent des contenus spécifiques et comment de la désinformation ou des messages haineux y apparaissent.

Les chercheurs recourent pour ce faire à une extension que quelque 1.500 utilisateurs installent volontairement, et co-regardent ce qui est visible sur Instagram. L'enquête était entrée dans sa deuxième année. A chaque fois, il avait été aussi demandé à Facebook de réagir aux résultats entre-temps obtenus. Mais au lieu de réagir, les chercheurs se sont vu demander de mettre fin à leur projet et de supprimer les données.

'Harcelés jusqu'à ce que nous jetions le gant'

Et ce n'était pas là une demande en l'air. Si Algorithm Watch ne stoppait pas, Facebook était prêt à 'un engagement plus formel'. Algorithm Watch déclare ne pas avoir les moyens d'affronter juridiquement Facebook et a donc supprimé les données. 'Nous avons été harcelés jusqu'à ce que nous arrêtions notre contrôle d'Instagram', peut-on lire dans une lettre ouverte adressée à l'UE, où les chercheurs demandent à ce que de tels projets soient mieux protégés.

Dans un entretien accordé au site finnois YLE, le chercheur Nicolas Kayser-Bril explique avoir constaté entre autres que les messages de politiciens contenant beaucoup de texte sont moins affichés que des photos.

'Nous étions encore loin d'avoir découvert les secrets de l'algorithme, mais Facebook s'en est quand même pris à nous. Cela montre bien que l'entreprise soit a quelque chose à cacher, soit se fait du souci à propos de la menace possible que représente partiellement son monopole', affirme Kayser-Bril à YLE.

Pour sa part, Facebook signale à YLE n'avoir jamais lancé de menace juridique, mais elle ne souhaite pas que des chercheurs enfreignent ses conditions d'utilisation. Ces dernières années, l'entreprise a assez souvent sabordé sciemment des projets de recherche indépendants. Tel fut récemment encore le cas d'un projet du New York University Ad Observatory, à la suite duquel les comptes des chercheurs furent suspendus. Et en 2019, un projet comparable de la VRT et De Tijd fut également bloqué.

Les données publiques contenaient des erreurs

Facebook réfute généralement cette critique en disant que ce genre d'outil enfreint les conditions d'utilisation (imposées par elle-même). En lieu et place, elle renvoie vers sa propre bibliothèque d'annonces et vers des initiatives, par lesquelles elle présente elle-même des données aux chercheurs. Le hic, c'est qu'il apparaît aujourd'hui que ces données contenaient des erreurs, ce qui réduisit directement à néant les efforts de ces chercheurs. Pour ce qui est de la bibliothèque d'annonces, elle fait également régulièrement l'objet de critiques, selon lesquelles elle ne contient pas tous les détails ou toutes les publicités.

Instagram plus nocive que ce qu'admet Facebook même

Il convient d'ajouter encore le dévoilement de la semaine dernière, selon lequel Facebook est parfaitement au courant du degré de nocivité de sa plate-forme. La semaine passée en effet, le Wall Street Journal dévoilait sur base de documents internes que Facebook sait pertinemment bien qu'Instagram donne aux adolescentes une piètre image d'elles-mêmes et que la plate-forme cite parfois cela comme raison de tentatives de suicide. Ces résultats, l'entreprise ne les a jamais partagés avec le monde extérieur et ce, jusqu'à ce qu'ils soient rendus publics par le journal.

En résumé, il semble encore et toujours que Facebook préfère éviter sur sa plate-forme les chercheurs de poux, qui pourraient mettre en évidence des abus sur le plan de la désinformation ou des préférences politiques dans l'algorithme. L'entreprise sait cependant très bien que pas mal de choses clochent en interne, mais elle préfère garder le silence. Et si des données sont quand même transmises à des chercheurs, elles sont erronées.

L'Algorithm Watch berlinois a examiné à l'approche des élections allemandes comment certaines choses apparaissent sur Instagram. L'objectif est de se rendre compte si la plate-forme, qui appartient à Facebook, publie assez souvent des contenus spécifiques et comment de la désinformation ou des messages haineux y apparaissent.Les chercheurs recourent pour ce faire à une extension que quelque 1.500 utilisateurs installent volontairement, et co-regardent ce qui est visible sur Instagram. L'enquête était entrée dans sa deuxième année. A chaque fois, il avait été aussi demandé à Facebook de réagir aux résultats entre-temps obtenus. Mais au lieu de réagir, les chercheurs se sont vu demander de mettre fin à leur projet et de supprimer les données.Et ce n'était pas là une demande en l'air. Si Algorithm Watch ne stoppait pas, Facebook était prêt à 'un engagement plus formel'. Algorithm Watch déclare ne pas avoir les moyens d'affronter juridiquement Facebook et a donc supprimé les données. 'Nous avons été harcelés jusqu'à ce que nous arrêtions notre contrôle d'Instagram', peut-on lire dans une lettre ouverte adressée à l'UE, où les chercheurs demandent à ce que de tels projets soient mieux protégés.Dans un entretien accordé au site finnois YLE, le chercheur Nicolas Kayser-Bril explique avoir constaté entre autres que les messages de politiciens contenant beaucoup de texte sont moins affichés que des photos.'Nous étions encore loin d'avoir découvert les secrets de l'algorithme, mais Facebook s'en est quand même pris à nous. Cela montre bien que l'entreprise soit a quelque chose à cacher, soit se fait du souci à propos de la menace possible que représente partiellement son monopole', affirme Kayser-Bril à YLE.Pour sa part, Facebook signale à YLE n'avoir jamais lancé de menace juridique, mais elle ne souhaite pas que des chercheurs enfreignent ses conditions d'utilisation. Ces dernières années, l'entreprise a assez souvent sabordé sciemment des projets de recherche indépendants. Tel fut récemment encore le cas d'un projet du New York University Ad Observatory, à la suite duquel les comptes des chercheurs furent suspendus. Et en 2019, un projet comparable de la VRT et De Tijd fut également bloqué.Facebook réfute généralement cette critique en disant que ce genre d'outil enfreint les conditions d'utilisation (imposées par elle-même). En lieu et place, elle renvoie vers sa propre bibliothèque d'annonces et vers des initiatives, par lesquelles elle présente elle-même des données aux chercheurs. Le hic, c'est qu'il apparaît aujourd'hui que ces données contenaient des erreurs, ce qui réduisit directement à néant les efforts de ces chercheurs. Pour ce qui est de la bibliothèque d'annonces, elle fait également régulièrement l'objet de critiques, selon lesquelles elle ne contient pas tous les détails ou toutes les publicités.Il convient d'ajouter encore le dévoilement de la semaine dernière, selon lequel Facebook est parfaitement au courant du degré de nocivité de sa plate-forme. La semaine passée en effet, le Wall Street Journal dévoilait sur base de documents internes que Facebook sait pertinemment bien qu'Instagram donne aux adolescentes une piètre image d'elles-mêmes et que la plate-forme cite parfois cela comme raison de tentatives de suicide. Ces résultats, l'entreprise ne les a jamais partagés avec le monde extérieur et ce, jusqu'à ce qu'ils soient rendus publics par le journal.En résumé, il semble encore et toujours que Facebook préfère éviter sur sa plate-forme les chercheurs de poux, qui pourraient mettre en évidence des abus sur le plan de la désinformation ou des préférences politiques dans l'algorithme. L'entreprise sait cependant très bien que pas mal de choses clochent en interne, mais elle préfère garder le silence. Et si des données sont quand même transmises à des chercheurs, elles sont erronées.