Le Parlement européen aspire à une alternative à la surveillance de masse
Un groupe de parlementaires européens de différents partis présente une alternative à la loi controversée contre la pédopornographie. Cela obligerait les entreprises technologiques à scanner tout le contenu des utilisateurs, avec des conséquences possibles sur la vie privée.
La nouvelle proposition, élaborée par des parlementaires distincts du Conseil et de la Commission, devrait lutter contre la maltraitance des enfants sans surveillance de masse de tous les Européens, et contre les dangers du cryptage.
La Commission européenne prépare depuis plusieurs mois une proposition de réglementation destinée, entre autres, à lutter contre la diffusion de la pédopornographie. Or ce genre de proposition suscite des critiques depuis tout aussi longtemps. C’est ainsi que la proposition précédente aurait exigé des plates-formes technologiques qu’elles scannent automatiquement les appareils de tous les utilisateurs à la recherche de ‘Child Sexual Abuse Material’ (CSAM), et aurait appelé également à la fin du véritable cryptage bout-à-bout. Dans la proposition originale, le scannage automatique serait exécuté via un logiciel obligatoire sur chaque appareil, détectant les contenus dangereux au moyen de l’IA.
Plusieurs critiques se font entendre à ce sujet. La proposition semble en effet entrer en conflit avec la propre législation européenne sur la protection de la vie privée. La question est de savoir quelle sera la précision du logiciel. Une fière grand-mère qui envoie une photo de son petit-fils en train de nager, pourrait-elle figurer sur la liste CSAM? Quelque 150 scientifiques ont également signé une lettre ouverte en juillet, pour exprimer leurs inquiétudes quant à l’impact négatif des règles sur la vie privée et la cybersécurité.
Une série de parlementaires partagent cette critique et présentent désormais une nouvelle proposition obligeant les entreprises technologiques et les plates-formes en ligne à prendre des mesures préventives contre la maltraitance des enfants. Il y est question par exemple de contrôler l’âge des utilisateurs. Les comptes des enfants sur des sites comme Instagram ou YouTube doivent également être définis comme privés par défaut pour empêcher des inconnus de les approcher.
Dans la nouvelle proposition, le scannage est relégué aux oubliettes, sauf cas particuliers. Si un service de police a la preuve que, par exemple, un groupe de discussion est utilisé à des fins de maltraitance d’enfants, un scannage peut être demandé auprès du tribunal. Cette analyse ne pourrait également être effectuée que pour les plates-formes qui ne sont pas sécurisées bout-à-bout. Cela signifierait que la loi n’exigerait plus de portes dérobées pour le cryptage.
Si tout se passe bien, la nouvelle proposition devrait être débattue par le Conseil de l’Europe (qui se compose de représentants des états membres) et par la Commission européenne, avant qu’une proposition finale ne soit votée.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici