L’algorithme de YouTube vous envoie d’un contenu érotique vers de jeunes enfants à la piscine

YouTube TV propose une quarantaine de chaînes dans cinq grandes villes américaines. L'arrivée en Europe n'est pas pour tout de suite.
Pieterjan Van Leemputten

Une enquête révèle que l’algorithme de YouTube renvoie graduellement les amateurs de vidéos à connotation sexuelle vers des vidéos mettant en scène des enfants toujours plus jeunes.

Le problème de pédophilie de YouTube n’est pas encore résolu. Fin février, le site avait décidé de bloquer les commentaires accompagnant les vidéos montrant de petits enfants. Et ce, après qu’on ait découvert que des pédophiles y plaçaient des réactions et des références à d’autres vidéos où l’on voyait de jeunes enfants en maillot de bain ou non, adoptant certaines poses. Des vidéos certes innocentes prises séparément, mais très souvent présentes sur la plate-forme vidéo de Google.

De plus, les recommandations automatiques faites par YouTube posent également problème. Voilà ce que prétendent dans le New York Timesdes chercheurs du Berkman Klein Center for Internet and Society, une composante d’Harvard.

Même si YouTube ne tolère pas le nu, surtout pas de mineurs d’âge, il y circule suffisamment de vidéos qui, conjointement, forment un modèle évident. Les chercheurs y ont fait tourner automatiquement des milliers de fois des vidéos sur base de l’algorithme de recommandations de YouTube.

Très vite, il est apparu que lorsqu’il s’agissait de vidéos à connotation sexuelle, les vidéos recommandées suivantes avaient en général un caractère plus extrême, mais aussi que les enfants qu’on y voyait, étaient de plus en plus jeunes. Le New York Times cite ainsi l’exemple de femmes qui parlent entre elles de sexe, de femmes en sous-vêtements, de mères en train d’allaiter et de vidéos mettant en scène des femmes vêtues d’habits pour enfants.

A partir de là, l’algorithme franchit encore une étape. Sont alors présentées des vidéos de jeunes enfants légèrement vêtus, en maillot de bain par exemple.

Ce qui est d’autant plus complexe, c’est que nombre de ces vidéos n’ont séparément pas de connotation sexuelle. Mais conjointement, elles forment un modèle clair et réellement attrayant pour les pédophiles. Le journal publie un exemple d’une fillette de dix ans qui avait déposé une vidéo la montrant en train de jouer avec une amie à la piscine. Mais cette vidéo fut subitement visionnée par 400.000 personnes et ce, en grande partie à cause de l’algorithme. C’est ainsi que YouTube envoie à un amateur de vidéos à connotation érotique sur la plate-forme des vidéos d’enfants en maillot.

Ce n’est pas la première fois que l’algorithme de recommandations pose problème. L’année dernière encore, il était apparu que YouTube Kids, qui cible spécifiquement les enfants, se mettait à relier des vidéos ordinaires à d’autres intégrant des images violentes ou inquiétantes.

YouTube même réagit de deux manières à cette observation. Au New York Times, l’entreprise déclare qu’elle n’observe pas ce qu’on appelle en jargon l’effet ‘rabbit hole’ (qu’on pourrait traduire par ‘malaise’ en français). “On ne sait pas clairement si nos recommandations vous poussent dans l’une ou l’autre direction”, affirme Jennifer O’Connor, product director chez YouTube.

Dans un communiqué posté sur son blog et apparu le jour même où le journal publia son article, l’entreprise énumère tout ce qu’elle fait pour protéger les mineurs d’âge. C’est ainsi que durant les trois premiers mois de cette année, pas moins de 800.000 vidéos ont été supprimées. Et YouTube d’ajouter que le système de recommandations est limité, lorsqu’il est question de vidéos correctes en soi, mais situées néanmoins au seuil du tolérable.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire