YouTube révèle elle-même ces chiffres pour montrer qu'elle entreprend des actions contre les vidéos violentes, racistes ou haineuses, mais aussi celles qui ne conviennent pas pour les enfants (même si elles semblent souvent inoffensives) ou qui contiennent des scènes de nu.

La plupart de ces vidéos supprimées (50,2 millions) provenaient d'1,67 million de canaux eux aussi fermés. Pour 7,8 millions de chargements, il était question de vidéos individuelles qui enfreignaient les conditions d'utilisation de Facebook.

Dans quatre-vingts pour cent des cas, il s'agissait de pourriels (spam), dans treize pour cent de vidéos de nu, et dans 4,5 autres pour cent de vidéos ne convenant pas pour les enfants.

Une grande partie des vidéos sont découvertes automatiquement et relativement vite au moyen de l'intelligence artificielle. C'est ainsi que l'entreprise indique avoir supprimé en septembre 10.400 vidéos à connotation extrémiste violente et 279.600 vidéos ne convenant pas pour les enfants. Nonante pour cent d'entre elles avaient été visionnées moins de dix fois.

Mais YouTube signale aussi que cette technique se prête moins bien aux messages de haine par exemple. Dans ce cas, l'entreprise dépend en partie des utilisateurs qui l'informent sur la présence de ce genre de vidéos, ce qui signifie que plusieurs personnes ont eu le temps de visionner les images, avant que la vidéo ne soit supprimée du réseau social.

Tout comme Facebook, YouTube est mise sous pression par la gent politique pour qu'elle supprime rapidement tout contenu inadapté, tant sous la forme de vidéos que de réactions. L'Europe entend que cela se fasse dans l'heure, sous peine d'amendes. Google, la société-mère de YouTube, a entre-temps engagé plus de dix mille modérateurs, soit mille de plus que l'année dernière.