Un modèle IT néerlandais filtre les menaces de mort de clavardages criminels
Le Nederlands Forensisch Instituut (NFI) a mis au point un modèle IT pour les enquêteurs ayant accès aux messages cryptés que s’échangent des criminels. Ce modèle apprend par lui-même et identifie les messages susceptibles de représenter une sérieuse menace.
‘Je veux voir le sang couler’ ou ‘Tire-lui une balle dans la tête’: tels sont des exemples de messages qui ont été envoyés l’année dernière via EncroChat et que des tribunaux citent à présent encore chaque semaine dans le cadre d’importantes procédures pénales. Vingt millions de messages environ provenant de dizaines de milliers d’utilisateurs ont abouti l’an passé entre les mains de la police, ce qui a permis d’empêcher des enlèvements, des tortures, voire des meurtres. EncroChat était le quatrième service de clavardage (chat) sécurisé de criminels que la police a réussi à pirater, alors qu’en mars est venu s’ajouter un cinquième: Sky ECC.
Lisez aussi: Sky ECC dément avoir été piraté
‘Effectuer des recherches dans une telle quantité de messages, c’est comme rechercher une aiguille dans une meule de foin. L’équipe de Forensische Big Data Analyse (FBDA) du NFI développe des modèles de filtrage de messages menaçants dans des services de clavardage piratés’, explique le NFI aujourd’hui même sur son site web. Le modèle d’EncroChat était opérationnel lorsqu’au 1er avril 2020, les communications sur ce service affluèrent auprès de la police.
Apprentissage profond
Le NFI recourt à l’apprentissage profond (‘deep learning’), à savoir un ensemble de techniques permettant d’apprendre aux ordinateurs à identifier la langue utilisés. En ce compris le jargon utilisé par des criminels, lorsqu’ils préparent des délits, enlèvements ou assassinats. Ils utilisent par exemple les termes slapen, poppen, afknallen et verdwijnen. Europol a aidé à élaborer une liste de mots comparables en français et en anglais.
Les enquêteurs de la police ont attribué ensuite le label ‘bedreigend’ (menaçant) ou ‘niet-bedreigend’ (non-menaçant) aux résultats trouvés, ce qui fait que les ordinateurs en ont appris davantage sur le contexte des messages. Des collaborateurs du NFI ont ainsi saisi des dizaines de milliers de phrases, afin de former le modèle. Les résultats, une fois contrôlés, reçoivent ensuite de nouveau un label, puis sont re-saisis, ce qui rend le système toujours plus intelligent.
Le NFI insiste sur le fait de ne pas pouvoir donner de garantie à 100 pour cent et que ce ne sont pas les ordinateurs, mais bien la police qui décide en fin de compte si un message est à ce point menaçant qu’il convient d’en avertir les victimes potentielles.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici