Apple postpose la fonction de scannage pédopornographique
Apple reporte la méthode annoncée de détection de contenus pédopornographiques en scannant préventivement les photos sur les iPhone.
Pour les clients américains, qui veulent stocker leurs photos dans le service iCloud de la firme technologique, celle-ci voulait scanner préventivement leur iPhone ou iPad à la recherche de photos pédopornographiques. Même si Apple revendiquait l’existence de diverses mesures de sécurité en vue de protéger la confidentialité des utilisateurs, son projet a fait l’objet de nombreuses critiques.
Apple déclare à présent que suite aux réactions de clients, d’organisations de défense des droits de l’homme, et de chercheurs, elle va prendre plus de temps pour améliorer le logiciel. On ignore combien de temps cela va prendre exactement, mais Apple affirme qu’elle va plancher sur la technologie ‘durant les prochains mois’. Plus de nonante organisations dans le monde ont demandé à Apple de suspendre son projet.
Sensible aux abus
Des esprits critiques estiment que cette méthode pourrait être abusée par d’autres pays, qui pourraient par exemple exiger le scannage d’illustrations s’opposant à un gouvernement oppresseur, afin de découvrir ainsi des dissidents. Pour sa défense, Apple s’est contentée de prétendre qu’elle l’interdirait.
Les critiques s’avérèrent en outre à ce point véhémentes qu’Apple se prévalait depuis quelques années d’initiatives pour la protection du respect de la vie privée de ses utilisateurs. C’est ainsi que l’entreprise avait émis en son temps une publicité, dont le slogan était: ‘Ce qui se passe sur votre iPhone, n’en sort pas’.
Dans sa mise à jour logicielle, Apple entendait aussi scanner les SMS et les messages de clavardage des enfants pour y rechercher du contenu incongru. Une notification à l’adresse des parents était aussi prévue.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici