YouTube calme les annonceurs et les parents inquiets avec des modérateurs supplémentaires

. © Reuters
Pieterjan Van Leemputten

YouTube insiste à nouveau sur le fait qu’elle prend des mesures pour supprimer rapidement les vidéos incongrues de sa plate-forme. L’entreprise entend par conséquent activer des modérateurs supplémentaires, ainsi que l’apprentissage machine.

Le site vidéo de Google fait depuis quelques semaines déjà l’objet de plaintes relatives à des vidéos pour enfants qui affichent de la publicité inadaptée, mais aussi à des vidéos incongrues qui se manifestent dans des listes de lecture (‘playing lists’) automatiques ou crées par des utilisateurs. La section des commentaires contiendrait en outre régulièrement des réactions inadéquates pour les jeunes utilisateurs. Il en est résulté que des annonceurs tels Adidas et Deutsche Bank ont refusé d’encore insérer de la publicité sur YouTube.

La semaine dernière déjà, YouTube avait signalé avoir supprimé 150.000 vidéos et 50.000 canaux faussement qualifiés d’amis des enfants. Et cette semaine, la CEO de l’entreprise, Susan Wojcicki, annonce que YouTube a contrôlé 2 millions de vidéos depuis le mois de juin, qu’elle va fixer de nouvelles règles pour les commentaires et recourir à l’apprentissage machine pour identifier plus rapidement les vidéos incongrues.

Et d’ajouter vouloir d’ici l’année prochaine recruter plus de 10.000 personnes pour vérifier les vidéos, sans préciser toutefois combien dès à présent.

Apprentissage machine

Selon Wojcicki, l’entreprise entend utiliser des modérateurs humains pour mettre aussi en oeuvre des algorithmes autodidactes. C’est ainsi qu’actuellement déjà, les vidéos contenant des images extrêmes sont détectées cinq fois plus vite et que 70 pour cent d’entre elles sont mises hors ligne dans les huit heures qui suivent.

YouTube a fait longtemps confiance au ‘user generated content’

“Nous prenons ces mesures, parce que c’est le choix qui s’impose”, déclare Wojcicki dans un communiqué. Ce genre de propos doit cependant être pris avec quelque réserve. C’est ainsi que YouTube n’a dans le passé effectué que peu, voire aucun contrôle des vidéos. Ce n’est qu’à présent que des annonceurs – la source de rentrées directe de l’entreprise – se retirent que YouTube se sent obligée de prendre des mesures.

Préalablement, l’entreprise, qui existe entre-temps depuis quasiment dix ans, n’avait pris des mesures (limitées) à l’encontre de compositions musicales déposées illégalement sur la plate-forme qu’après avoir fait l’objet de plaintes juridiques de la part des labels discographiques. Et elle n’avait réagi contre des vidéos de groupes terroristes qu’après qu’une sérieuse controverse ait eu lieu à ce propos.

Pour ce qui est des vidéos pour enfants, YouTube a des années durant fait simplement et généralement confiance à ce qu’on appelle le ‘user generated content’ (contenu produit par les utilisateurs), sans y exercer un grand contrôle donc. Mais maintenant qu’il apparaît que les utilisateurs osent mettre du contenu inadéquat sur internet et surtout que des annonceurs ne souhaitent pas voir leur marque y associée, voici que YouTube décide qu’il est temps à présent d’apaiser les parents d’enfants utilisant la plate-forme.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire