La semaine dernière, Apple annonçait qu'à partir des iPhone iOS 15, elle scannerait les appareils à la recherche d'images pédopornographiques. Une fois transférées dans iCloud, elles seraient comparées au contenu connu d'une base de données. Quiconque posséderait trop de ces images, pourrait être dénoncé aux services d'ordre.

Cette initiative fit immédiatement l'objet d'un tas de critiques, qui n'ont fait qu'enfler ces derniers jours. Entre-temps, une lettre ouverte a été signée par plusieurs organisations de défense du respect de la vie privée et des droits de l'homme, ainsi que par plus de cinq mille particuliers.

On peut y lire que l'approche d'Apple représente un grand pas accompli vers une surveillance et un contrôle permanents. Les signataires se demandent combien temps il faudra pour que la base de données d'images pédopornographiques soit étendue à du contenu à caractère 'terroriste' par exemple ou à des sujets 'nuisibles, mais légaux' ou censurés par certaines autorités.

L'un des exemples cités dans la lettre, provenant du Dr Nadim Kobeissi, chercheur en sécurité et en confidentialité, c'est le fait qu'Apple n'autorise pas FaceTime en Arabie Saoudite, parce que ce pays ne tolère pas les communications cryptées. 'Qu'en serait-il si des lois locales en Arabie Saoudite obligeaient que des messages soient scannés en quête de faits d'homosexualité ou d'offenses à la monarchie?'

WhatsApp refuse

Will Cathcart, directeur de WhatsApp, critique aussi l'initiative, ce qui est assez étonnant: 'Je suis préoccupé. Il s'agit là d'une approche incorrecte et d'une mauvaise chose pour le respect de la vie privée des gens partout dans le monde. On nous a demandé si nous allions faire pareil chez WhatsApp. La réponse est non', déclare-t-il dans une explication sur Twitter.

Cathcart ajoute que WhatsApp a l'année dernière transmis plus de quatre cent mille cas au National Center for Missing and Exploited Children, des cas qui avaient été mis en évidence sur la base de messages rapportés sur Whatsapp. Il comprend certes qu'Apple doive réagir, 'mais sa façon de procéder est très préoccupante.'

'Nous disposons d'ordinateurs personnels depuis des décennies déjà, et il n'y a jamais eu un seul mandat en vue de scanner le contenu privé de tous ces desktops, laptops ou téléphones à la recherche d'éléments illégaux. Ce n'est pas ainsi que fonctionne la technologie dans les pays libres.'

Cathcart se demande comment ce système sera utilisé d'un pays à l'autre, parce que les normes d'acceptabilité peuvent y différer. Il met aussi en garde contre les espiogiciels ('spyware') ou d'autres failles dans le système, ce qui permettrait d'en abuser à d'autres fins.

En marge, il fait également référence au fait que des enquêteurs indépendants n'ont pas encore eu l'opportunité d'examiner le système. Mais ce reproche est quelque peu hypocrite, étant donné que Facebook même vient de réfuter des chercheurs désireux d'enquêter sur son système publicitaire.

Apple: dans d'autres pays aussi

Aujourd'hui, Apple se défend en fournissant davantage d'explications sur le mode de fonctionnement du système. L'entreprise insiste ainsi sur le fait que le système ne donnera pas directement aux autorités un droit de regard. C'est ainsi que la comparaison avec la base de données contenant des images pédopornographiques connues sera encore contrôlée par des collaborateurs d'Apple, et qu'aucune personne ne fera l'objet d'un rapport en l'absence d'images. Le hic, c'est qu'on ne connaît pas encore le degré d'hermétisme du système dans la pratique. Apple affirme pourtant envisager d'étendre son projet à d'autres pays et ce, en fonction des lois locales. On ignore encore de quels pays il s'agira et quand cela se passera.

La semaine dernière, Apple annonçait qu'à partir des iPhone iOS 15, elle scannerait les appareils à la recherche d'images pédopornographiques. Une fois transférées dans iCloud, elles seraient comparées au contenu connu d'une base de données. Quiconque posséderait trop de ces images, pourrait être dénoncé aux services d'ordre.Cette initiative fit immédiatement l'objet d'un tas de critiques, qui n'ont fait qu'enfler ces derniers jours. Entre-temps, une lettre ouverte a été signée par plusieurs organisations de défense du respect de la vie privée et des droits de l'homme, ainsi que par plus de cinq mille particuliers.On peut y lire que l'approche d'Apple représente un grand pas accompli vers une surveillance et un contrôle permanents. Les signataires se demandent combien temps il faudra pour que la base de données d'images pédopornographiques soit étendue à du contenu à caractère 'terroriste' par exemple ou à des sujets 'nuisibles, mais légaux' ou censurés par certaines autorités.L'un des exemples cités dans la lettre, provenant du Dr Nadim Kobeissi, chercheur en sécurité et en confidentialité, c'est le fait qu'Apple n'autorise pas FaceTime en Arabie Saoudite, parce que ce pays ne tolère pas les communications cryptées. 'Qu'en serait-il si des lois locales en Arabie Saoudite obligeaient que des messages soient scannés en quête de faits d'homosexualité ou d'offenses à la monarchie?'Will Cathcart, directeur de WhatsApp, critique aussi l'initiative, ce qui est assez étonnant: 'Je suis préoccupé. Il s'agit là d'une approche incorrecte et d'une mauvaise chose pour le respect de la vie privée des gens partout dans le monde. On nous a demandé si nous allions faire pareil chez WhatsApp. La réponse est non', déclare-t-il dans une explication sur Twitter.Cathcart ajoute que WhatsApp a l'année dernière transmis plus de quatre cent mille cas au National Center for Missing and Exploited Children, des cas qui avaient été mis en évidence sur la base de messages rapportés sur Whatsapp. Il comprend certes qu'Apple doive réagir, 'mais sa façon de procéder est très préoccupante.''Nous disposons d'ordinateurs personnels depuis des décennies déjà, et il n'y a jamais eu un seul mandat en vue de scanner le contenu privé de tous ces desktops, laptops ou téléphones à la recherche d'éléments illégaux. Ce n'est pas ainsi que fonctionne la technologie dans les pays libres.'Cathcart se demande comment ce système sera utilisé d'un pays à l'autre, parce que les normes d'acceptabilité peuvent y différer. Il met aussi en garde contre les espiogiciels ('spyware') ou d'autres failles dans le système, ce qui permettrait d'en abuser à d'autres fins.En marge, il fait également référence au fait que des enquêteurs indépendants n'ont pas encore eu l'opportunité d'examiner le système. Mais ce reproche est quelque peu hypocrite, étant donné que Facebook même vient de réfuter des chercheurs désireux d'enquêter sur son système publicitaire.Aujourd'hui, Apple se défend en fournissant davantage d'explications sur le mode de fonctionnement du système. L'entreprise insiste ainsi sur le fait que le système ne donnera pas directement aux autorités un droit de regard. C'est ainsi que la comparaison avec la base de données contenant des images pédopornographiques connues sera encore contrôlée par des collaborateurs d'Apple, et qu'aucune personne ne fera l'objet d'un rapport en l'absence d'images. Le hic, c'est qu'on ne connaît pas encore le degré d'hermétisme du système dans la pratique. Apple affirme pourtant envisager d'étendre son projet à d'autres pays et ce, en fonction des lois locales. On ignore encore de quels pays il s'agira et quand cela se passera.