Amnesty International : le système de notification de Google favoriserait les agressions sexuelles

Des femmes coréennes manifestant contre la pornographie en ligne sur la base d'images diffusées sans autorisation par des caméras cachées le 4 août 2018 à Séoul en Corée du Sud. © iStock

Plusieurs jeunes filles et femmes ont informé l’organisation des droits de l’homme Amnesty International que des images explicites, diffusées sur l’internet sans leur consentement, continuaient à circuler. La douleur des victimes est encore aggravée par la lenteur et la complexité du système mis en place par le géant de l’internet Google pour diffuser du contenu, estimait jeudi Amnesty International.

“Il était très facile [pour l’agresseur] de charger une vidéo, mais il fallait des mois pour obtenir sa suppression”, estime une victime. “Alors qu’une vague de crimes sexuels numériques provoque de lourds dégâts en Corée du Sud dont des femmes et des jeunes filles sont les victimes, le système inadéquat mis en place par Google pour notifier tout contenu explicitement non-consensuel ne fait qu’aggraver la situation”, considère Jihyun Yoon, directeur d’Amnesty International Corée.

“Google se doit d’agir davantage pour prévenir la propagation de la violence en ligne liée au genre et ce, pas uniquement en Corée, mais dans le monde entier.” Amnesty International fait référence à la fameuse affaire Nth Room dans le cadre de laquelle des journalistes sud-coréens ont dévoilé en 2020 l’existence de huit chatrooms secrètes sur le système de messagerie Telegram. Celles-ci vendaient des vidéos explicites de jeunes filles et de femmes sans leur autorisation et se rémunéraient en crypto-monnaies. Selon la police sud-coréenne, plus de 60.000 personnes auraient été impliquées dans ces chatrooms, précise encore l’organisation de défense des droits de l’homme.

Contenu partenaire