Dans un communiqué, Apple signale qu'elle en fera désormais plus contre la diffusion d'images pédopornographiques, qualifiées aux Etats-Unis de Child Sexual Abuse Material (CSAM). Voilà pourquoi elle installera à partir d'iOS 15, iPadOS 15, WatchOS 8 et MacOS Monterey des outils de détection de telles images déposées dans iCloud.

Dès que plusieurs de ces images seront détectées, il y aura un contrôle humain, et les services d'ordre seront informés à propos de qui collecte ce genre d'images. 'La méthode est conçue dans le respect de la vie privée, où la détection CSAM aidera Apple à fournir de précieuses informations aux services de police à propos des collectes de CSAM dans iCloud Photos.'

Actuellement, l'objectif est d'appliquer un scannage automatique aux utilisateurs américains et uniquement en matière pédopornographique. Mais Apple indique elle-même qu'elle ne s'arrêtera pas là. 'C'est là un ambitieux programme. La protection des enfants est une importante responsabilité. Ces efforts évolueront et seront étendus avec le temps.'

En même temps, il y aura aussi des outils pour les parents leur signalant si leur enfant reçoit dans iMessage 'du contenu sensible'. Ce contrôle s'effectuera à l'aide de l'AI (intelligence artificielle).

Comment Apple saura-t-elle qu'il s'agit bien de pédopornographie?

L'initiative part d'un bon sentiment, mais suscite pas mal de questions quand même, surtout sur le plan de la confidentialité. Ces dernières années, Apple s'est profilée comme un acteur respectant la vie privée, contrairement à Google ou Facebook. Elle ne vend en effet pas de données, mais va désormais néanmoins surveiller pro-activement ses utilisateurs et transmettre leur identité aux services d'ordre, si elle estime qu'il pourrait s'agir de pédophiles.

Dans un premier temps, le fonctionnement pratique est correct. Les images que l'utilisateur déposera à partir de son iPhone, se verront attribuer une valeur 'hash', à savoir un code quasiment unique découlant de la composition de l'image. Ces codes seront comparés avec une base de données d'images pédopornographiques connues, fournies par des organisations en charge de la lutte contre la pédopornographie. Cela signifie par exemple que des photos de vos propres enfants nus ne seront en principe pas considérées comme de la pédopornographie.

Mais ce genre de système n'est pour autant pas hermétique. Matthew Green, cryptographe au Johns Hopkins Information Security Institute, déclare ainsi sur Twitter que ce type d'hash n'est pas nécessairement unique et qu'il est possible de créer une image qui génère le même code, mais qui soit parfaitement innocente. Il n'est donc pas exclu de recevoir des images qui n'ont aucune signification digne de ce nom, mais qui sont pourtant classées dans la catégorie pédopornographie, selon la base de données.

'Une porte dérobée bien documentée n'en reste pas moins une porte dérobée'

Les organisations militant en faveur de la confidentialité se montrent aussi réticentes vis-à-vis de l'initiative d'Apple. C'est ainsi que si l'Electronic Frontier Foundation (EFF) reconnaît que la pédopornographie représente un sérieux problème, elle indique qu'une telle initiative exercera un impact très négatif sur le respect de la vie privée.

'Apple explique peut-être en long et en large comment elle respecte la confidentialité et la sécurité sur le plan technique, mais en fin de compte, il n'en reste pas moins qu'une porte dérobée étroite et bien documentée demeure une porte dérobée', selon l'EFF.

La fondation se dit déçue du projet d'Apple, surtout du fait que l'entreprise a toujours été une grande adepte du cryptage bout-à-bout. C'est ainsi qu'il y a quelques années encore, elle avait sorti le slogan suivant: 'What happens on your iPhone stays on your iPhone', une formule dont il ne subsiste pas grand-chose à présent.

null, .
null © .

Aujourd'hui la pédopornographie et demain?

Une seconde question-clé est de savoir comment ce genre de scan sera appliqué dans quelques années. Dans quelle mesure Apple tentera-t-elle à terme d'identifier des images à l'aide de l'AI, où il y aura le risque qu'une photo de vos propres enfants nus par exemple soit considérée comme du contenu incongru. On ignore aussi si et quand Apple étendra cette approche aux utilisateurs européens ou autres.

Mais la principale crainte est que cette pratique puisse également être appliquée pour d'autres choses. L'EFF prévient que ce type de système ne peut être conçu rien que pour la pédopornographie. 'Même un effort bien intentionné comme celui-ci rompt la promesse du cryptage et ouvre la porte à un large abus (de la confidentialité, ndlr).' La fondation affirme donc qu'elle va solliciter quelques adaptations pour que le scannage porte aussi sur d'autres images.

Le 'terrorisme' semble être ici le sujet le plus évident. Mais ici encore, il s'agit d'une notion relativement large allant de quelqu'un qui veut réellement commettre un attentat jusqu'à une personne qui aime collecter par exemple de la propagande antioccidentale ou antiaméricaine. En outre, ce qui tombe dans la catégorie terrorisme, peut différer d'un pays à l'autre.

Régimes autoritaires

La porte est ainsi de nouveau ouverte aux régimes autoritaires prêts à exiger d'Apple qu'elle applique différemment la technologie. Si la Chine décide demain qu'Apple ne peut plus vendre d'iPhone sur son territoire, sauf si elle scanne ses appareils pour y rechercher de la propagande antichinoise ou pro-démocratique, on arrivera alors bien vite à une situation, où une technologie bien intentionnée sera directement utilisée pour identifier et contrer des gens défendant une autre idéologie.

Cryptage ou pas?

Il nous faut apporter ici la nuance, selon laquelle Apple et d'autres acteurs technologiques en vue se trouvent depuis longtemps déjà sous pression en vue d'incorporer des portes dérobées dans le cryptage. Cette communication entre utilisateurs et vers le nuage ne peut être visualisée par les services d'ordre, ce qui constitue pour eux au niveau mondial une fameuse épine dans le pied, à tel point que certains appellent publiquement à mettre progressivement un terme aux raisons de sécurité.

Il est possible qu'avec cette approche, Apple opte pour un juste milieu dans ses propres conditions, par lequel elle contrôlera elle-même dans certaines circonstances limitées au lieu de permettre aux autorités de le faire. Reste à savoir cependant pendant combien de temps ces circonstances limitées subsisteront. La technologie existe, mais qui dit qu'elle ne sera pas tôt ou tard abusée à d'autres fins.

Dans un communiqué, Apple signale qu'elle en fera désormais plus contre la diffusion d'images pédopornographiques, qualifiées aux Etats-Unis de Child Sexual Abuse Material (CSAM). Voilà pourquoi elle installera à partir d'iOS 15, iPadOS 15, WatchOS 8 et MacOS Monterey des outils de détection de telles images déposées dans iCloud.Dès que plusieurs de ces images seront détectées, il y aura un contrôle humain, et les services d'ordre seront informés à propos de qui collecte ce genre d'images. 'La méthode est conçue dans le respect de la vie privée, où la détection CSAM aidera Apple à fournir de précieuses informations aux services de police à propos des collectes de CSAM dans iCloud Photos.'Actuellement, l'objectif est d'appliquer un scannage automatique aux utilisateurs américains et uniquement en matière pédopornographique. Mais Apple indique elle-même qu'elle ne s'arrêtera pas là. 'C'est là un ambitieux programme. La protection des enfants est une importante responsabilité. Ces efforts évolueront et seront étendus avec le temps.'En même temps, il y aura aussi des outils pour les parents leur signalant si leur enfant reçoit dans iMessage 'du contenu sensible'. Ce contrôle s'effectuera à l'aide de l'AI (intelligence artificielle).Comment Apple saura-t-elle qu'il s'agit bien de pédopornographie?L'initiative part d'un bon sentiment, mais suscite pas mal de questions quand même, surtout sur le plan de la confidentialité. Ces dernières années, Apple s'est profilée comme un acteur respectant la vie privée, contrairement à Google ou Facebook. Elle ne vend en effet pas de données, mais va désormais néanmoins surveiller pro-activement ses utilisateurs et transmettre leur identité aux services d'ordre, si elle estime qu'il pourrait s'agir de pédophiles.Dans un premier temps, le fonctionnement pratique est correct. Les images que l'utilisateur déposera à partir de son iPhone, se verront attribuer une valeur 'hash', à savoir un code quasiment unique découlant de la composition de l'image. Ces codes seront comparés avec une base de données d'images pédopornographiques connues, fournies par des organisations en charge de la lutte contre la pédopornographie. Cela signifie par exemple que des photos de vos propres enfants nus ne seront en principe pas considérées comme de la pédopornographie.Mais ce genre de système n'est pour autant pas hermétique. Matthew Green, cryptographe au Johns Hopkins Information Security Institute, déclare ainsi sur Twitter que ce type d'hash n'est pas nécessairement unique et qu'il est possible de créer une image qui génère le même code, mais qui soit parfaitement innocente. Il n'est donc pas exclu de recevoir des images qui n'ont aucune signification digne de ce nom, mais qui sont pourtant classées dans la catégorie pédopornographie, selon la base de données.'Une porte dérobée bien documentée n'en reste pas moins une porte dérobée'Les organisations militant en faveur de la confidentialité se montrent aussi réticentes vis-à-vis de l'initiative d'Apple. C'est ainsi que si l'Electronic Frontier Foundation (EFF) reconnaît que la pédopornographie représente un sérieux problème, elle indique qu'une telle initiative exercera un impact très négatif sur le respect de la vie privée.'Apple explique peut-être en long et en large comment elle respecte la confidentialité et la sécurité sur le plan technique, mais en fin de compte, il n'en reste pas moins qu'une porte dérobée étroite et bien documentée demeure une porte dérobée', selon l'EFF.La fondation se dit déçue du projet d'Apple, surtout du fait que l'entreprise a toujours été une grande adepte du cryptage bout-à-bout. C'est ainsi qu'il y a quelques années encore, elle avait sorti le slogan suivant: 'What happens on your iPhone stays on your iPhone', une formule dont il ne subsiste pas grand-chose à présent.Aujourd'hui la pédopornographie et demain?Une seconde question-clé est de savoir comment ce genre de scan sera appliqué dans quelques années. Dans quelle mesure Apple tentera-t-elle à terme d'identifier des images à l'aide de l'AI, où il y aura le risque qu'une photo de vos propres enfants nus par exemple soit considérée comme du contenu incongru. On ignore aussi si et quand Apple étendra cette approche aux utilisateurs européens ou autres.Mais la principale crainte est que cette pratique puisse également être appliquée pour d'autres choses. L'EFF prévient que ce type de système ne peut être conçu rien que pour la pédopornographie. 'Même un effort bien intentionné comme celui-ci rompt la promesse du cryptage et ouvre la porte à un large abus (de la confidentialité, ndlr).' La fondation affirme donc qu'elle va solliciter quelques adaptations pour que le scannage porte aussi sur d'autres images.Le 'terrorisme' semble être ici le sujet le plus évident. Mais ici encore, il s'agit d'une notion relativement large allant de quelqu'un qui veut réellement commettre un attentat jusqu'à une personne qui aime collecter par exemple de la propagande antioccidentale ou antiaméricaine. En outre, ce qui tombe dans la catégorie terrorisme, peut différer d'un pays à l'autre.Régimes autoritairesLa porte est ainsi de nouveau ouverte aux régimes autoritaires prêts à exiger d'Apple qu'elle applique différemment la technologie. Si la Chine décide demain qu'Apple ne peut plus vendre d'iPhone sur son territoire, sauf si elle scanne ses appareils pour y rechercher de la propagande antichinoise ou pro-démocratique, on arrivera alors bien vite à une situation, où une technologie bien intentionnée sera directement utilisée pour identifier et contrer des gens défendant une autre idéologie.Cryptage ou pas?Il nous faut apporter ici la nuance, selon laquelle Apple et d'autres acteurs technologiques en vue se trouvent depuis longtemps déjà sous pression en vue d'incorporer des portes dérobées dans le cryptage. Cette communication entre utilisateurs et vers le nuage ne peut être visualisée par les services d'ordre, ce qui constitue pour eux au niveau mondial une fameuse épine dans le pied, à tel point que certains appellent publiquement à mettre progressivement un terme aux raisons de sécurité.Il est possible qu'avec cette approche, Apple opte pour un juste milieu dans ses propres conditions, par lequel elle contrôlera elle-même dans certaines circonstances limitées au lieu de permettre aux autorités de le faire. Reste à savoir cependant pendant combien de temps ces circonstances limitées subsisteront. La technologie existe, mais qui dit qu'elle ne sera pas tôt ou tard abusée à d'autres fins.