Google classe une banale photo d’un enfant nu dans la catégorie pédophilie et clôture le compte concerné

© Getty Images
Pieterjan Van Leemputten

Un homme a vu son compte Google fermé et a reçu la visite de la police, parce qu’il avait envoyé à son médecin la photo des parties génitales de son enfant.

Cette histoire a tout d’un cauchemar en matière de confidentialité. L’enfant en question souffrait d’enflures dans l’entrejambe et en préambule à une consultation vidéo, son père envoya des photos de l’affection à son médecin, à la demande de ce dernier. Les faits datent de février 2021, lorsqu’aux Etats-Unis, de nombreux cabinets médicaux n’était pas aisément accessibles en raison du corona.

L’affection en question fut traitée par antibiotiques, mais deux jours plus tard, l’homme reçu une notification de Google, selon laquelle son compte était bloqué à cause d’un contenu préjudiciable par lequel il avait enfreint la politique de l’entreprise et avait ainsi potentiellement commis des faits illégaux.

L’homme n’avait dès lors plus accès à ses mails, contacts, photos en ligne, voire à son propre numéro de téléphone qui demeura un certain temps inutilisable. Il put néanmoins faire appel de la décision de Google, mais cette requête fut rejetée.

L’affaire fut examinée plus avant en décembre par la police locale de San Francisco, où l’homme habite, mais fut ensuite interrompue, car il était clair qu’il s’agissait d’un malentendu et qu’aucun fait criminel n’avait été commis.

Scanning proactif

L’histoire de ce papa est à présent publiée par le New York Times. Mais comment se fait-il qu’une photo personnelle partagée en privé déclenche un tel mécanisme?

Google scanne des photos et d’autres contenus qui transitent par ses serveurs à la recherche d’abus pédophile potentiels. La plupart des firmes technologiques le font en ‘hashant’ les images, en les ramenant à un fragment de code et en comparant ce dernier à une base de données d’abus pédophiles connus.

En 2018, Google a elle-même sorti son kit d’outils AI Content Safety API. A l’entendre, l’entreprise peut ainsi identifier proactivement les actes de pédophilie inconnus. Outre Google, d’autres organisations peuvent également utiliser la technologie. Mais apparemment, cette dernière ne fonctionne pas toujours de manière infaillible, ce qui fait que des images anodines de nu issues de la sphère privée sont classées dans la catégorie pédophilie.

Google scanne-t-elle votre téléphone?

Cela signifie-t-il que Google scanne chaque photo de votre téléphone? Oui et non. Un porte-parole de Google déclare à The New York Times que le scannage ne concerne que des actions spécifiques, comme la sauvegarde d’images dans Google Photos.

Dès qu’une image est classée dans la catégorie pédophilie, cela est signalé aussi à certaines instances comme le National Center for Missing & Exploited Children (NCMEC) américain. L’année dernière, Google a fait rapport de quelque 621.583 cas à cet organisme. Dans 4.260 des cas, cela a entraîné des dépositions à la police par le NCMEC, comme dans le cas présent.

Cette affaire fait penser aux projets d’Apple de l’année dernière. A l’époque, on avait appris que des images dans iCloud, où les photos d’un iPhone font l’objet d’une sauvegarde par défaut, seraient aussi scannées à la recherche d’actes de pédophilie, du moins en ce qui concerne les utilisateurs américains. Dès que plusieurs dépositions sont reçues, Apple le notifierait. Mais cette façon de faire avait fait l’objet de critiques véhémentes de la part de défenseurs de la confidentialité et avait été postposée. Toujours est-il que cette méthode n’est donc pas supprimée, puisqu’elle est appliquée dans la pratique chez Google. Et en Europe également, des voix s’élèvent en vue d’imposer cette façon de faire aux entreprises technologiques

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire