Le projet controversé d'Apple consiste à comparer des photos téléchargées sur iCloud avec une base de données d'images à caractère pédopornographique. Si l'analyse identifie un nombre trop important d'images de ce type, s'ensuit alors un contrôle humain pouvant mener à un signalement auprès des forces de l'ordre.

Le système s'est retrouvé sous le feu des critiques, notamment de la part de spécialistes de la sécurité et d'organisations de défense des droits de l'homme. On lui reproche principalement d'ouvrir la porte à des abus dans le chef des régimes autoritaires qui peuvent forcer Apple à rechercher également d'autres types de contenu.

Apple a dès lors apporté une petite modification au système. Il ne recherchera désormais que des images qui ont été référencées par des organisations dans plusieurs pays comme étant de nature pédopornographique. Bien qu'elle ne collabore actuellement qu'avec le centre américain pour les enfants disparus et exploités (NBCMEC).

30 photos

La semaine dernière, Apple s'est également abstenu de fournir de plus amples détails sur le nombre de photos qui doit être identifié avant qu'un contrôle humain ne soit effectué. Il est actuellement de trente photos, mais selon les déclarations d'Apple à l'agence Reuters, il est susceptible de diminuer à mesure que la technologie s'améliore.

Le projet controversé d'Apple consiste à comparer des photos téléchargées sur iCloud avec une base de données d'images à caractère pédopornographique. Si l'analyse identifie un nombre trop important d'images de ce type, s'ensuit alors un contrôle humain pouvant mener à un signalement auprès des forces de l'ordre.Le système s'est retrouvé sous le feu des critiques, notamment de la part de spécialistes de la sécurité et d'organisations de défense des droits de l'homme. On lui reproche principalement d'ouvrir la porte à des abus dans le chef des régimes autoritaires qui peuvent forcer Apple à rechercher également d'autres types de contenu.Apple a dès lors apporté une petite modification au système. Il ne recherchera désormais que des images qui ont été référencées par des organisations dans plusieurs pays comme étant de nature pédopornographique. Bien qu'elle ne collabore actuellement qu'avec le centre américain pour les enfants disparus et exploités (NBCMEC).La semaine dernière, Apple s'est également abstenu de fournir de plus amples détails sur le nombre de photos qui doit être identifié avant qu'un contrôle humain ne soit effectué. Il est actuellement de trente photos, mais selon les déclarations d'Apple à l'agence Reuters, il est susceptible de diminuer à mesure que la technologie s'améliore.