La semaine dernière, Apple annonçait vouloir comparer les photos sur votre iPhone avec une base de données d'images pédopornographiques bien connues. Quiconque stockerait plusieurs de ces images dans iCloud, serait dénoncé aux services d'ordre.

Suite à cela, l'entreprise fait l'objet d'une tempête de critiques du fait qu'elle espionnerait ainsi ses utilisateurs. La crainte est surtout qu'elle n'en reste pas à la pédopornographie et que certains pays l'obligent à scanner également les iPhone à la recherche d'autres contenus. Pensons ici à une large notion du genre propagande terroriste ou des images liées à l'homosexualité dans des pays, où cela est encore fortement punissable.

Ne pas céder aux demandes

Apple se défend à présent face à ces critiques et prétend qu'elle s'opposerait à ce genre de tentative de la part d'autorités: 'Dans le passé déjà, des autorités nous ont demandé d'effectuer des adaptations en vue d'enfreindre le respect de la vie privée de nos utilisateurs, mais nous avons toujours refusé. C'est ce que nous continuerons de faire à l'avenir.'

Cette attitude est cependant assez relative. Selon l'agence Reuters, cela pourrait provoquer dans certains cas des procès qui pourraient très bien être passés publiquement sous silence. Il convient d'ajouter aussi qu'Apple a déjà cédé dans le passé. Il y eut ainsi le cas de FaceTime, qui n'était jusqu'en 2017 pas disponible notamment en Arabie Saoudite, où les communications cryptées sont interdites.

Pas de vidéo

A présent, Apple déclare aussi que sa façon de faire est la moins invasive. C'est ainsi qu'il n'y aura un contrôle humain que si plusieurs images pédopornographiques sont identifiées. Apple ajoute que cela empêchera le visionnement possible d'autres contenus sur les iPhone. L'avenir nous dira si ce système s'avérera bien étanche dans la pratique.

Le risque que des pirates installent ce genre d'images sur votre téléphone par le biais d'un bug, est également considéré comme particulièrement faible par Apple. Enfin, l'entreprise signale que son système ne scanne pour l'instant encore aucune image vidéo, mais qu'il sera étendu dans le futur.

La semaine dernière, Apple annonçait vouloir comparer les photos sur votre iPhone avec une base de données d'images pédopornographiques bien connues. Quiconque stockerait plusieurs de ces images dans iCloud, serait dénoncé aux services d'ordre.Suite à cela, l'entreprise fait l'objet d'une tempête de critiques du fait qu'elle espionnerait ainsi ses utilisateurs. La crainte est surtout qu'elle n'en reste pas à la pédopornographie et que certains pays l'obligent à scanner également les iPhone à la recherche d'autres contenus. Pensons ici à une large notion du genre propagande terroriste ou des images liées à l'homosexualité dans des pays, où cela est encore fortement punissable.Apple se défend à présent face à ces critiques et prétend qu'elle s'opposerait à ce genre de tentative de la part d'autorités: 'Dans le passé déjà, des autorités nous ont demandé d'effectuer des adaptations en vue d'enfreindre le respect de la vie privée de nos utilisateurs, mais nous avons toujours refusé. C'est ce que nous continuerons de faire à l'avenir.'Cette attitude est cependant assez relative. Selon l'agence Reuters, cela pourrait provoquer dans certains cas des procès qui pourraient très bien être passés publiquement sous silence. Il convient d'ajouter aussi qu'Apple a déjà cédé dans le passé. Il y eut ainsi le cas de FaceTime, qui n'était jusqu'en 2017 pas disponible notamment en Arabie Saoudite, où les communications cryptées sont interdites.A présent, Apple déclare aussi que sa façon de faire est la moins invasive. C'est ainsi qu'il n'y aura un contrôle humain que si plusieurs images pédopornographiques sont identifiées. Apple ajoute que cela empêchera le visionnement possible d'autres contenus sur les iPhone. L'avenir nous dira si ce système s'avérera bien étanche dans la pratique.Le risque que des pirates installent ce genre d'images sur votre téléphone par le biais d'un bug, est également considéré comme particulièrement faible par Apple. Enfin, l'entreprise signale que son système ne scanne pour l'instant encore aucune image vidéo, mais qu'il sera étendu dans le futur.