Face aux critiques, Apple revoit son système d’analyse

L'actuel iPhone 12 Pro. © Apple
Pieterjan Van Leemputten

Il semble qu’Apple adoptera finalement une approche plus prudente dans son analyse automatique visant à identifier les images d’abus sexuels d’enfants sur votre iPhone. La confirmation ne peut désormais provenir d’une seule base de données.

Le projet controversé d’Apple consiste à comparer des photos téléchargées sur iCloud avec une base de données d’images à caractère pédopornographique. Si l’analyse identifie un nombre trop important d’images de ce type, s’ensuit alors un contrôle humain pouvant mener à un signalement auprès des forces de l’ordre.

Le système s’est retrouvé sous le feu des critiques, notamment de la part de spécialistes de la sécurité et d’organisations de défense des droits de l’homme. On lui reproche principalement d’ouvrir la porte à des abus dans le chef des régimes autoritaires qui peuvent forcer Apple à rechercher également d’autres types de contenu.

Apple a dès lors apporté une petite modification au système. Il ne recherchera désormais que des images qui ont été référencées par des organisations dans plusieurs pays comme étant de nature pédopornographique. Bien qu’elle ne collabore actuellement qu’avec le centre américain pour les enfants disparus et exploités (NBCMEC).

30 photos

La semaine dernière, Apple s’est également abstenu de fournir de plus amples détails sur le nombre de photos qui doit être identifié avant qu’un contrôle humain ne soit effectué. Il est actuellement de trente photos, mais selon les déclarations d’Apple à l’agence Reuters, il est susceptible de diminuer à mesure que la technologie s’améliore.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire