Apple défend son nouveau logiciel de scanning de photos d’abus d’enfants

Craig Fererighi © Getty Images

Le nouveau logiciel du géant technologique Apple destiné à contrôler si des utilisateurs aux Etats-Unis détiennent des photos d’abus d’enfants est ” mal compris dans l’ensemble “, estime Craig Federighi, grand patron de l’éditeur Apple dans un entretien au quotidien économique The Wall Street Journal. Selon Fererighi, les systèmes d’Apple ne sont pas moins bien sécurisés ou fiables lorsque le logiciel est utilisé.

Apple a annoncé ce nouveau logiciel destiné aux iPhone et iPad notamment plus tôt dans le mois. Des critiques ont été émises quant à la sensibilité à la vie privée du nouveau logiciel. Des milliers de personnes ont déjà signé une pétition visant à convaincre Apple de ne pas installer son logiciel. Les spécialistes mettent en garde contre le fait que le logiciel pourrait être détourné à d’autres fins et ouvrir la porte à un espionnage à grande échelle ainsi qu’à des pirates. “Notre volonté était de découvrir ainsi les images dans le cloud sans visionner les photos des utilisateurs”, explique Federighi. Et d’ajouter qu’Apple souhaitait intégrer cette fonctionnalité en déployant une technique sécurisée qui n’était à ce jour pas encore utilisée.

Dans le cadre d’une explication de ce logiciel, Apple a déclaré vendredi vouloir veiller à ce que le logiciel ne puisse être manipulé à d’autres fins. Pour ce faire, l’entreprise collabore avec des organisations ‘de confiance’ dans différents pays afin de déterminer quelles images devaient être surveillées. De même, Apple a souligné une nouvelle fois qu’elle avait toujours refusé d’accéder aux demandes des autorités d’intégrer certaines fonctionnalités qui risqueraient de violer la vie privée des utilisateurs. Et l’entreprise continuera à le refuser, insiste Apple.

Marge d’erreur réduite

Le logiciel déclenche une alerte lorsqu’il estime avoir découvert des images illégales, après quoi une équipe de chercheurs peut décider de faire intervenir la police. Le logiciel est capable d’identifier des images d’abus dans le système de sauvegarde iCloud, mais peut aussi mettre en oeuvre l’intelligence artificielle pour informer les enfants et leurs parents qu’ils ont reçu ou envoyé des images à caractère explicitement sexuel via Messages, l’appli de SMS d’Apple. Ces images peuvent alors être floutées, tandis que les parents reçoivent un avertissement lorsqu’un tel contenu est expédié ou visionné.

Apple explique que le logiciel peut comparer les photos à des images d’abus d’enfants stockées dans la base de données du National Center for Missing and Exploited Children américain (le centre pour enfants disparus et sexuellement exploités). Le système aurait une marge d’erreur de moins de ‘1 pour 1 milliard’. Apple précise qu’elle ne reçoit des informations sur les photos d’utilisateurs que lorsque ceux-ci ont une collection d’images d’abus connues dans leur compte iCloud.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire