Une nouvelle enquête démontre que c'est toujours un jeu d'enfant que d'insérer sur Facebook des publicités allant à l'encontre de ses règles. Les organisations non-marchandes Global Witness et Foxglove ont lancé au Kenya vingt annonces différentes, tant en swahili qu'en anglais, intégrant des appels à la haine, et elles ont constaté que 19 d'entre elles sont passées sans encombre.

Il s'agissait d'annonces lançant des appels à la violence (sur une base ethnique), à des décapitations, à des viols ou dans lesquelles certaines tribus étaient comparées à des bêtes, déclare Global Witness. A l'entendre, l'organisation a utilisé des annonces sur Facebook, précisément parce qu'elles devaient être plus strictement modérées que des publications ordinaires et parce qu'une publicité pouvait encore et toujours être retirée avant d'apparaître réellement en ligne.

Mais l'approbation pour publication existait bel et bien, même s'il était question d'un contenu qui, selon les propres règles de Facebook, n'était pas autorisé. Les organisations demandent par conséquent à Meta, la société-mère de Facebook, d'exercer un contrôle plus approfondi sur ce qu'elle autorise sur sa plate-forme.

Le rapport de Global Witness et Foxglove génère également des réactions au Kenya même. C'est ainsi que la National Cohesion and Integration Commission (NCIC) demande à Facebook de faire immédiatement en sorte de stopper ce genre d'annonces. Cette commission a été créée en 2007 suite aux violences électorales qui avaient causé la mort de 1.300 personnes.

La NCIC a même brandi la menace de bannir Facebook du pays. Mais entre-temps, le chef de cabinet du ministre de l'informatique local a apporté la nuance, selon laquelle on n'y travaillait pas activement pour le moment.

Par souci de clarté, sachez que Facebook n'est pas le secteur acteur qui n'en fait pas assez en la matière. L'enquête de Global Witness se concentre certes sur Facebook, mais Techcrunch fait observer que Twitter et TikTok font elles aussi preuve de trop peu de modération en vue de limiter les discours de haine. Et de se référer à une étude de la Mozilla Foundation, aussi à propos du Kenya, où il semble que des vidéos virales contenant des messages haineux et de la désinformation politique ont continué de circuler, même si elles allaient à l'encontre des règles de TikTok.

Facebook prend des mesures depuis des années, selon elle

Facebook même indique déjà à Global Witness qu'elle prend des mesures pour identifier les appels à la haine et que des équipes de collaborateurs connaissant la langue locale ont pour mission de le faire le mieux possible, mais qu'il peut toujours y avoir des exceptions.

Facebook donne ainsi en grande partie la même réponse qu'il y a quelques années, lorsqu'on lui reprochait la présence de contenu incongru sur sa plate-forme. Lorsqu'il fut question en 2016 d'une immixtion russe dans les élections américaines, Facebook le démentit dans un premier temps, avant de le reconnaître et de promettre que cela n'arriverait plus.

Mais entre-temps, d'autres exemples se sont manifestés. D'après une enquête réalisée à la demande de Facebook elle-même, l'entreprise en fit par exemple trop peu en 2018 à Myanmar où des appels à la violence furent lancés via Facebook. Et au début de cette années, on eut droit à un scenario similaire en Ethiopie.

Bref, l'entreprise prétend depuis quelques années déjà qu'elle fait tout ce qu'il faut pour lutter contre la haine et la violence et cite ensuite des chiffres quant au nombre de messages postés supprimés, mais il n'empêche que cela reste un jeu d'enfant d'insérer sur la plate-forme des annonces payantes qui ne sont découvertes ni par l'AI ni par les modérateurs humains.

Une nouvelle enquête démontre que c'est toujours un jeu d'enfant que d'insérer sur Facebook des publicités allant à l'encontre de ses règles. Les organisations non-marchandes Global Witness et Foxglove ont lancé au Kenya vingt annonces différentes, tant en swahili qu'en anglais, intégrant des appels à la haine, et elles ont constaté que 19 d'entre elles sont passées sans encombre.Il s'agissait d'annonces lançant des appels à la violence (sur une base ethnique), à des décapitations, à des viols ou dans lesquelles certaines tribus étaient comparées à des bêtes, déclare Global Witness. A l'entendre, l'organisation a utilisé des annonces sur Facebook, précisément parce qu'elles devaient être plus strictement modérées que des publications ordinaires et parce qu'une publicité pouvait encore et toujours être retirée avant d'apparaître réellement en ligne.Mais l'approbation pour publication existait bel et bien, même s'il était question d'un contenu qui, selon les propres règles de Facebook, n'était pas autorisé. Les organisations demandent par conséquent à Meta, la société-mère de Facebook, d'exercer un contrôle plus approfondi sur ce qu'elle autorise sur sa plate-forme.Le rapport de Global Witness et Foxglove génère également des réactions au Kenya même. C'est ainsi que la National Cohesion and Integration Commission (NCIC) demande à Facebook de faire immédiatement en sorte de stopper ce genre d'annonces. Cette commission a été créée en 2007 suite aux violences électorales qui avaient causé la mort de 1.300 personnes.La NCIC a même brandi la menace de bannir Facebook du pays. Mais entre-temps, le chef de cabinet du ministre de l'informatique local a apporté la nuance, selon laquelle on n'y travaillait pas activement pour le moment.Par souci de clarté, sachez que Facebook n'est pas le secteur acteur qui n'en fait pas assez en la matière. L'enquête de Global Witness se concentre certes sur Facebook, mais Techcrunch fait observer que Twitter et TikTok font elles aussi preuve de trop peu de modération en vue de limiter les discours de haine. Et de se référer à une étude de la Mozilla Foundation, aussi à propos du Kenya, où il semble que des vidéos virales contenant des messages haineux et de la désinformation politique ont continué de circuler, même si elles allaient à l'encontre des règles de TikTok.Facebook même indique déjà à Global Witness qu'elle prend des mesures pour identifier les appels à la haine et que des équipes de collaborateurs connaissant la langue locale ont pour mission de le faire le mieux possible, mais qu'il peut toujours y avoir des exceptions.Facebook donne ainsi en grande partie la même réponse qu'il y a quelques années, lorsqu'on lui reprochait la présence de contenu incongru sur sa plate-forme. Lorsqu'il fut question en 2016 d'une immixtion russe dans les élections américaines, Facebook le démentit dans un premier temps, avant de le reconnaître et de promettre que cela n'arriverait plus.Mais entre-temps, d'autres exemples se sont manifestés. D'après une enquête réalisée à la demande de Facebook elle-même, l'entreprise en fit par exemple trop peu en 2018 à Myanmar où des appels à la violence furent lancés via Facebook. Et au début de cette années, on eut droit à un scenario similaire en Ethiopie.Bref, l'entreprise prétend depuis quelques années déjà qu'elle fait tout ce qu'il faut pour lutter contre la haine et la violence et cite ensuite des chiffres quant au nombre de messages postés supprimés, mais il n'empêche que cela reste un jeu d'enfant d'insérer sur la plate-forme des annonces payantes qui ne sont découvertes ni par l'AI ni par les modérateurs humains.