La plateforme vidéo de Google a défendu ses techniques de modération des contenus, en insistant sur la priorité donnée aux sources légitimes et fiables, comme l'Organisation mondiale de la Santé (OMS). "Nous retirons près de 10 millions de vidéos par trimestre, dont la majorité n'atteignent même pas les dix vues", a souligné Neal Mohan, directeur produits du site, dans un communiqué publié mercredi. Mais "si on regarde seulement ce que nous enlevons, on passe à côté des montagnes de contenus que les gens voient vraiment", insiste-t-il. "En tout, entre 0.16% et 0.18% des visionnages concernent des contenus qui enfreignent nos règles."

Selon lui, maintenant, "quand les gens cherchent les nouvelles ou des informations, ils obtiennent des résultats optimisés en termes de qualité, et non de sensationnalisme". Le très populaire service de divertissement et d'information a ainsi donné des détails sur sa stratégie, similaire à celles mises en avant par Facebook et Twitter, deux réseaux régulièrement dans le collimateur des autorités sur ces sujets.

La question de la désinformation autour du Covid-19 et des vaccins a pris de telles proportions qu'en juillet, le président américain Joe Biden a même estimé que Facebook et d'autres plateformes "tuaient" des gens en laissant circuler de fausses informations sur la vaccination contre le Covid. Il était revenu sur ses propos pour préciser que les fausses informations diffusées par les utilisateurs pouvaient "faire du mal à ceux qui les écoutent" et "tuer des gens".

Neal Mohan a évoqué une autre accusation récurrente contre les plateformes et leur modèle économique, fondé sur la publicité et donc l'attention des spectateurs. "On me demande parfois si nous laissons des contenus provocants parce que nous en bénéficions financièrement. Non seulement ce type de contenus ne réalise pas de bonnes performances sur YouTube -- surtout par comparaison avec la musique ou l'humour -- mais ils érodent la confiance du public et des annonceurs", a-t-il assuré. Le directeur a néanmoins admis que dépister les contenus trompeurs n'était pas toujours évident. "Pour le Covid, nous nous basons sur le consensus des experts des organisations de la santé (...). Mais dans la plupart des autres cas, la désinformation est plus difficile à évaluer." Les patrons de Facebook, Twitter et Google ont été convoqués à plusieurs reprises pour répondre aux questions des parlementaires américains, notamment sur le sujet de la modération des contenus.

La plateforme vidéo de Google a défendu ses techniques de modération des contenus, en insistant sur la priorité donnée aux sources légitimes et fiables, comme l'Organisation mondiale de la Santé (OMS). "Nous retirons près de 10 millions de vidéos par trimestre, dont la majorité n'atteignent même pas les dix vues", a souligné Neal Mohan, directeur produits du site, dans un communiqué publié mercredi. Mais "si on regarde seulement ce que nous enlevons, on passe à côté des montagnes de contenus que les gens voient vraiment", insiste-t-il. "En tout, entre 0.16% et 0.18% des visionnages concernent des contenus qui enfreignent nos règles." Selon lui, maintenant, "quand les gens cherchent les nouvelles ou des informations, ils obtiennent des résultats optimisés en termes de qualité, et non de sensationnalisme". Le très populaire service de divertissement et d'information a ainsi donné des détails sur sa stratégie, similaire à celles mises en avant par Facebook et Twitter, deux réseaux régulièrement dans le collimateur des autorités sur ces sujets. La question de la désinformation autour du Covid-19 et des vaccins a pris de telles proportions qu'en juillet, le président américain Joe Biden a même estimé que Facebook et d'autres plateformes "tuaient" des gens en laissant circuler de fausses informations sur la vaccination contre le Covid. Il était revenu sur ses propos pour préciser que les fausses informations diffusées par les utilisateurs pouvaient "faire du mal à ceux qui les écoutent" et "tuer des gens". Neal Mohan a évoqué une autre accusation récurrente contre les plateformes et leur modèle économique, fondé sur la publicité et donc l'attention des spectateurs. "On me demande parfois si nous laissons des contenus provocants parce que nous en bénéficions financièrement. Non seulement ce type de contenus ne réalise pas de bonnes performances sur YouTube -- surtout par comparaison avec la musique ou l'humour -- mais ils érodent la confiance du public et des annonceurs", a-t-il assuré. Le directeur a néanmoins admis que dépister les contenus trompeurs n'était pas toujours évident. "Pour le Covid, nous nous basons sur le consensus des experts des organisations de la santé (...). Mais dans la plupart des autres cas, la désinformation est plus difficile à évaluer." Les patrons de Facebook, Twitter et Google ont été convoqués à plusieurs reprises pour répondre aux questions des parlementaires américains, notamment sur le sujet de la modération des contenus.