X réagit plus rapidement à la vengeance porno en cas de violation du droit d’auteur
Des chercheurs ont montré que l’ex-Twitter réagit beaucoup plus rapidement aux images de nus signalées comme étant une violation du droit d’auteur. D’autres contenus indésirables diffusés continuent, eux, de circuler pendant des semaines.
Une étude universitaire révèle une différence notable au niveau de l’approche appliquée chez X. Les images de nus signalées comme étant une violation du droit d’auteur sont prioritaires. Mais lorsqu’il s’agit d’images de nus diffusées sans le consentement de la personne, comme dans le cas de la vengeance porno, il n’y a souvent aucune réaction de la part de l’entreprise. Cela signifie qu’une victime ne peut pratiquement rien faire aux Etats-Unis.
Des chercheurs de l’université du Michigan ont diffusé cinquante images de nus générées par l’IA sur X via divers comptes dans le cadre de l’enquête. Dans 25 cas, les images ont été signalées comme étant une violation du droit d’auteur, les 25 autres comme des images de nus diffusées sans aucun consentement (nudité non consensuelle).
La différence dans l’approche de X est étonnante. Toutes les images signalées comme étant une violation du droit d’auteur ont été mises hors ligne dans les 25 heures qui suivirent, et les comptes ont été temporairement suspendus. Par contre, les images non consensuelles sont toutes restées en ligne pendant au moins trois semaines, et certaines n’ont pas suscité de réaction.
Lacune dans la loi
L’étude (via le site 404 Media ), qui n’a pas encore été évaluée par des pairs, affirme que cela s’explique en partie par le caractère coercitif de la loi américaine. Le DMCA, le Digital Millennium Copyright Act, qui existe au niveau fédéral depuis plusieurs décennies, est régulièrement appliqué dans le pays. C’est pourquoi les violations du droit d’auteur sont probablement entraînent une suppression plus rapide.
La législation américaine est moins stricte concernant les images de nus. Il existe des lois dans plusieurs états, mais pas encore de loi fédérale formelle. Les chercheurs prétendent qu’une plate-forme comme X est donc moins pressée d’agir.
Victime vs photographe
Cela devient un peu plus cynique, quand on sait qu’il existe également une différence juridique dans les images de nus qui sont diffusées. Le droit d’auteur sur une photo appartient au photographe et non à la personne photographiée.
Si vous prenez un selfie, vous pouvez en principe prétendre que la diffusion non désirée de cette photo constitue une violation du droit d’auteur. Si quelqu’un d’autre prend cette photo et la diffuse ensuite, vous, en tant que victime, avez beaucoup moins de droits.
‘Une loi spécifique NCIM (non-consensual intimate media, ndlr) devrait définir clairement les droits des victimes et imposer des obligations juridiques aux plates-formes en vue de supprimer rapidement les contenus préjudiciables’, indique l’enquête.
La RGPD fait mieux
Il est étonnant que les chercheurs renvoient explicitement à la loi européenne RGPD. Celle-ci donne aux individus plus de contrôle sur leurs données et leur consentement, associé à de lourdes amendes, si les entreprises refusent de collaborer.
La loi est souvent évoquée par les grandes entreprises technologiques américaines comme un obstacle et une raison pour laquelle elles ne lanceront pas certains services en Europe. Mais elle les oblige aussi à réagir plus rapidement, lorsque quelqu’un diffuse des données indésirables (y compris des images) d’une personne.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici