La Metropolitan Police, comme s'appellent les forces de l'ordre de la capitale britannique, a publié des chiffres à propos de trois journées au cours desquelles la Live Facial Recognition (LFR) a été utilisée, à savoir les 11, 20 et 27 février. Durant l'opération, les passants ont été comparés à une liste de quelques milliers de personnes recherchées. L'objectif est que les images des passants soient ensuite à chaque fois supprimées.

Le premier jour, 4.600 visages ont été scannés sans comparaison. Le 20 février, le système était en panne et n'a pu scanner personne. Et le 27 février, ce sont 8.600 passants qui ont été scannés et comparés à une liste de 7.292 personnes recherchées. Cela s'est traduit par huit 'alerts' (correspondances possibles) émanant du système.

Parmi ces huit cas, deux correspondances ont été clairement identifiées par erreur. Pour les six autres cas, cinq personnes ont été arrêtées par la police, mais par la suite, il s'avéra qu'il s'agissait de fausses correspondances. En fait, une seule personne fut correctement identifiée et arrêtée.

Ce n'est pas la première fois qu'il apparaît que la reconnaissance faciale à Londres ne fonctionne pas sans problème. L'été dernier encore, on avait appris que l'université d'Essex avait passé le système en revue. Sur un total de 42 correspondances, le système avait déclenché pas moins de 34 fois une fausse alarme.

The Register fait observer que pour cette raison, le gouvernement écossais refuse pour l'instant d'utiliser cette technologie. Selon les autorités écossaises, le système se trompe assez souvent surtout quand il s'agit de femmes, de noirs, d'asiatiques et d'autres minorités ethniques. Le groupe d'activistes londonien Big Brother Watch recourt également à des données chiffrées pour démontrer que la reconnaissance faciale est disproportionnée et imprécise. L'organisation parle de violation des droits de l'homme et des libertés fondamentales.

La Metropolitan Police, comme s'appellent les forces de l'ordre de la capitale britannique, a publié des chiffres à propos de trois journées au cours desquelles la Live Facial Recognition (LFR) a été utilisée, à savoir les 11, 20 et 27 février. Durant l'opération, les passants ont été comparés à une liste de quelques milliers de personnes recherchées. L'objectif est que les images des passants soient ensuite à chaque fois supprimées.Le premier jour, 4.600 visages ont été scannés sans comparaison. Le 20 février, le système était en panne et n'a pu scanner personne. Et le 27 février, ce sont 8.600 passants qui ont été scannés et comparés à une liste de 7.292 personnes recherchées. Cela s'est traduit par huit 'alerts' (correspondances possibles) émanant du système.Parmi ces huit cas, deux correspondances ont été clairement identifiées par erreur. Pour les six autres cas, cinq personnes ont été arrêtées par la police, mais par la suite, il s'avéra qu'il s'agissait de fausses correspondances. En fait, une seule personne fut correctement identifiée et arrêtée.Ce n'est pas la première fois qu'il apparaît que la reconnaissance faciale à Londres ne fonctionne pas sans problème. L'été dernier encore, on avait appris que l'université d'Essex avait passé le système en revue. Sur un total de 42 correspondances, le système avait déclenché pas moins de 34 fois une fausse alarme.The Register fait observer que pour cette raison, le gouvernement écossais refuse pour l'instant d'utiliser cette technologie. Selon les autorités écossaises, le système se trompe assez souvent surtout quand il s'agit de femmes, de noirs, d'asiatiques et d'autres minorités ethniques. Le groupe d'activistes londonien Big Brother Watch recourt également à des données chiffrées pour démontrer que la reconnaissance faciale est disproportionnée et imprécise. L'organisation parle de violation des droits de l'homme et des libertés fondamentales.