Le fait que les côtés sombres de YouTube soient toujours davantage considérés comme une machine de propagande pour tout ce qui va du nationalisme blanc jusqu'à la théorie anti-vaccination, n'est en grande partie dû qu'à elle-même. Voilà ce qu'écrit l'agence Bloomberg dans un rapport. Dans ce dernier, on apprend que le réseau social a des années durant promu des vidéos controversées, sous prétexte de leur 'engagement'. A présent que les médias sociaux sont soumis à une pression toujours plus forte, afin qu'ils prennent leurs responsabilités vis-à-vis du contenu qui y est déposé, il apparaît que pour YouTube (tout comme pour Facebook, Twitter et d'autres du reste), il soit malaisé de trouver un juste équilibre.

Engagement

Sur base de témoignages d'employés, Bloomberg écrit que YouTube a refusé des années durant de retirer des vidéos toxiques et ce, parce qu'elles étaient très souvent visionnées. Des employés auraient au fil des ans fait plusieurs propositions en vue de contrer la diffusion de contenus extrêmes, comme par exemple en ne recommandant plus des vidéos, lorsqu'elles étaient sur le fil du rasoir. Une proposition fut rejetée sous prétexte que l'on cliquait souvent sur ces vidéos pourtant controversées. L'objectif interne aurait été d'atteindre un milliard d'heures de visionnement par jour. Selon les employés militants, le focus était surtout mis sur l'engagement, et voilà pourquoi leur combat contre des informations nocives et fautives fut en grande partie ignoré.

Tout cela aurait eu comme conséquence qu'il fallut attendre très longtemps, avant que YouTube n'apporte quelques changements à la culture sur le site. Ce n'est qu'en janvier de cette année que fut par exemple introduit un système ne recommandant plus les vidéos extrêmes.

Liberté d'expression

Les médias sociaux aiment se considérer comme des défenseurs neutres de la liberté d'expression. Susan Wojcicki, CEO de YouTube, compare dès lors souvent le site à une bibliothèque, dans laquelle de fausses informations ont aussi leur place. L'avantage d'une telle approche, c'est que la modération s'avère dans ce cas moins nécessaire. Et l'inconvénient, c'est que par la manière unique, dont les algorithmes fonctionnent, la désinformation et les vidéos controversées se répandent très rapidement. Plus vite généralement que leur variante correcte plutôt ennuyeuse.

Pour les algorithmes donnant la préférence à l'engagement, une vidéo avec un contenu insensé, comme par exemple le fait qu'Hillary Clinton fasse partie d'une secte satanique ou que la Terre soit plate, est en effet une 'bonne' vidéo, qui est non seulement beaucoup regardée, mais qui suscite aussi souvent des réactions de la part tant de défenseurs que de détracteurs. En recommandant toujours ces vidéos, YouTube a contribué en partie à leur diffusion.

La situation a entre-temps changé. YouTube a commencé en 2017 à 'démonétiser' les canaux propageant du contenu nuisible. Ces canaux ne reçoivent donc plus de fonds publicitaire. Dans une réaction à l'article rédigé par Bloomberg, un porte-parole de Google déclare que le nombre de personnes qui travaillent sur les 'content issues' (problèmes de contenu), atteint à présent les 10.000 et que le site recourt également à l'apprentissage machine pour trouver des vidéos faisant la part belle à la violence.

Responsabilités

Cette nouvelle s'inscrit dans un débat plus large sur la manière dont les médias sociaux doivent traiter la propagande. C'est ainsi que la première ministre de Nouvelle-Zélande a, ces dernières semaines, appelé les médias sociaux à prendre leurs responsabilités. Elle a tenu ces propos suite à l'attaque terroriste perpétrée sur une mosquée à Christchurch, où l'auteur avait diffusé sa tuerie en direct. En réaction, Facebook a la semaine dernière banni le nationalisme blanc en élargissant la définition des messages racistes jusqu'à couvrir également cette thématique. Les messages haineux explicites étaient depuis assez longtemps déjà interdits sur Facebook et sa filiale Instagram, et les pages néonazies et racistes ont depuis des années déjà été supprimées.

En la matière, YouTube se veut à présent quelque peu plus circonspecte, semble-t-il. C'est ainsi qu'une certaine propagande n'en est pas bannie, mais plutôt sujette à des restrictions supplémentaires. Un bon exemple nous est fourni par le canal de l'activiste d'extrême-droite britannique Stephen Yaxley-Lennon, mieux connu sous le nom de Tommy Robinson. L'homme a précédemment déjà été banni par Twitter et Facebook, alors que les autorités britanniques demandent aussi à YouTube de le traiter plus sévèrement. Dans ses 'vlogs', Robinson aurait notamment intimidé des journalistes et des politiciens et a déjà été condamné pour violence et fraude. Il peut provisoirement rester sur YouTube, même si le site a renforcé les règles de son canal. Il est désormais interdit à Robinson de faire de la diffusion en direct, alors que les commentaires et les 'j'aime' sont supprimés de ses vidéos. Le canal avait précédemment déjà été dépouillé d'annonces publicitaires. Même si des vidéos de Robinson n'enfreignent pas les règles de YouTube, il suffit qu'elles soient jugées controversées par des utilisateurs pour les exclure.

YouTube recherche, semble-t-il, un juste équilibre qui convienne au plus grand nombre de personnes, y compris aux partis conservateurs et de droite qui accusent Google de partialité.