L’Europe prépare un nouveau plan de détection d’enfants abusés en ligne

© Getty Images
Pieterjan Van Leemputten

Un nouveau cadre juridique est en cours d’élaboration pour permettre aux grandes plates-formes internet d’identifier et de supprimer les images d’abus sexuels sur des enfants. Ce plan ne toucherait pas au cryptage bout à bout.

Ce plan succèderait à une loi controversée relative au CSAM (‘child sexual abuse material’, alias du matériel pédopornographique). Initialement, ce plan obligerait les entreprises technologiques à analyser tous les contenus des utilisateurs, ce qui constituerait une grave violation de la confidentialité.

Selon l’agence Reuters, le nouveau plan obligerait ces mêmes acteurs à identifier et à supprimer des images, mais sans contourner le cryptage. Les détails définitifs ne sont pas encore disponibles, mais ils seront testés avec les états membres l’année prochaine, afin d’aboutir à un texte législatif final.

La loi s’appliquerait tant aux services de messagerie (tels que WhatsApp ou Signal) qu’aux fournisseurs internet et aux magasins d’applications, qui devraient détecter et supprimer à la fois les images connues et les nouvelles images d’abus d’enfants. Le pédo-piégeage (‘grooming’) en ligne devrait également être détecté. On ignore cependant encore comment cela se ferait sans contrôler le contenu d’une conversation de chat.

Reuters révèle qu’il y aura également des restrictions, précisément pour empêcher que la loi ne soit utilisée pour la surveillance de masse. C’est ainsi qu’il y aura des limites quant aux circonstances dans lesquelles les autorités seront autorisées à rechercher ce type de contenu. Cela ne serait possible, par exemple, que s’il existe des soupçons raisonnables d’abus. Les entreprises pourraient également choisir la technologie avec laquelle elles détecteraient ces méfaits, à condition que cette technologie puisse faire l’objet d’un audit.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire