Des entreprises russes proposent une reconnaissance faciale “raciste”

© ANP
Pieterjan Van Leemputten

Des chercheurs américains affirment que les logiciels de reconnaissance faciale de certaines entreprises russes permettent une classification sur la base de la race ou de l’origine ethnique. Ce serait notamment le cas avec la technologie de VisionLabs, une entreprise russe dont le siège est situé à Amsterdam.

Qu’il s’agisse de scanner les visages avant que des personnes ne soient admises dans un bâtiment ou de permettre à la police de repérer des suspects dans une foule, l’utilisation croissante de la reconnaissance faciale fait s’élever des voix de plus en plus fortes dénonçant une potentielle utilisation contraire à l’éthique de cette technologie.

Des chercheurs américains ont publié lundi un rapport montrant que les entreprises qui développent cette technologie ont créé un logiciel capable de déterminer l’origine ethnique d’une personne. Les groupes de défense des droits civiques numériques affirment que le logiciel est “délibérément créé pour la discrimination”.

Le cabinet de recherche américain IPVM a examiné des manuels destinés aux développeurs et des exemples de codage. Il en ressort que le logiciel avec lequel les quatre plus grandes entreprises russes font de la publicité pour la reconnaissance faciale peut classer les visages en fonction de la race ou de l’origine ethnique présumée, sur la base de l’intelligence artificielle (IA). Il n’existe aucune preuve que la police russe ait utilisé cette technologie contre des minorités, mais le logiciel est toutefois vendu par les sociétés – AxxonSoft, Tevian, VisionLabs et NtechLab – à des autorités et des entreprises en Russie et à l’étranger.

Désactivée

La société AxxonSoft, basée à Moscou, a déclaré en réponse aux questions de la rédaction que la fonctionnalité permettant de détecter l’origine ethnique a entre-temps été désactivée. L’entreprise affirme également qu’elle n’est pas intéressée “de promouvoir une technologie qui peut être à la base d’une ségrégation ethnique.”

Divers groupes de défense des droits civils s’inquiètent des conclusions de l’IPVM, alléguant que le profilage racial est normal dans le pays. Ils affirment également que les autorités utilisent déjà l’intelligence artificielle pour identifier et emprisonner les opposants au gouvernement.

“Les résultats de recherche soulignent le racisme inhérent à ces systèmes”, a déclaré Edin Omanovic, directeur du plaidoyer de Privacy International, une organisation de défense des droits de l’homme basée à Londres.

“Il ne s’agit pas tant d’outils de sécurité bénins dont on peut abuser, mais plutôt d’outils profondément ancrés dans l’une des idées les plus destructrices de l’humanité et délibérément conçus pour la discrimination.”

Le ministre russe de l’Intérieur et NtechLab n’ont pas répondu à une demande de commentaire.

Les trois autres entreprises se sont montrées sceptiques quant à la capacité actuelle de leur technologie à donner lieu à des abus, mais ont affirmé être conscientes des problèmes éthiques liés à son utilisation.

Vadim Konushin, CEO de Tevian (une entreprise également connue sous le nom de Video Analysis Technologies), nie que l’utilisation actuelle du logiciel par la police puisse donner lieu à une discrimination. VisionLabs affirme que son logiciel d’analyse de l’origine ethnique a été développé uniquement à des fins de recherche interne.

Ouïghours

Le fait que les logiciels de reconnaissance faciale puissent être utilisés dans un but préjudiciable est évident en Chine, où des entreprises d’IA ont mis au point des logiciels permettant d’identifier, de suivre et de surveiller les Ouïghours, une minorité musulmane, explique Matt Mahmoudi, chercheur sur l’IA et les droits humains à Amnesty International.

Surveillance à Moscou

En Russie, où des groupes de défense des droits de l’homme affirment que les migrants, en particulier ceux d’Asie centrale, sont souvent la cible de profilage racial, de détention arbitraire et de violence, l’utilisation potentielle de la détection raciale est inquiétante, selon M. Mahmoudi.

“Les droits des minorités associées à un certain niveau de comportement déviant ou de criminalité pourraient être affectés si la technologie est largement déployée. Je pense, par exemple, à leur droit de réunion.”

Un porte-parole du département de la technologie de Moscou, qui est responsable du système de surveillance de la ville, a répondu par e-mail que l’analyse des vidéos est utilisée pour améliorer la sécurité et trouver les contrevenants.

Un avenir “terrifiant”

AxxonSoft, connue en Russie sous le nom d’ITV, et Tevian, affirment que les forces de l’ordre utilisent leurs produits pour analyser la criminalité. Il s’agit généralement de trouver des suspects sur la base de descriptions.

Le site web de NtechLab indique que le logiciel FindFace de l’entreprise sert à soutenir le système de reconnaissance faciale de Moscou. Les autorités affirment que cela permet de réduire la criminalité et d’appliquer les mesures de confinement liées à la Covid-19.

Analyse involontaire de l’ethnie

Certaines entreprises technologiques russes disent être conscientes du fait que leurs logiciels peuvent être utilisés à des fins de discrimination. Anton Nazarkin, directeur commercial de VisionLabs, indique que le logiciel de l’entreprise est proposé sur son site web, mais que l’entreprise n’a jamais délivré de licences pour ce logiciel en raison de problèmes éthiques et juridiques. Cela pourrait être contraire à la législation européenne sur la protection des données.

Le site web d’AxxonSoft indique que plus de deux millions de caméras sont installées dans le monde. Azret Teberdiev, responsable du marketing chez AxxonSoft, explique que l’analyse de l’ethnie a été ‘accidentellement’ incluse dans le produit en raison de son intégration avec un logiciel de tiers. L’entreprise signale à la rédaction qu’elle va désactiver cette fonctionnalité.

“Une telle fonctionnalité n’est pas conforme aux normes éthiques de notre entreprise”, a déclaré M. Teberdiev.

M. Konushin, de Tevian, répond que la reconnaissance faciale n’est actuellement pas encore assez développée pour reconnaître des groupes ethniques minoritaires spécifiques, mais qualifie le potentiel de cette technologie d’inquiétant. “Ce qui m’effraie, c’est le cas théorique où tout le monde fait automatiquement l’objet d’un profilage racial et où la police reçoit le signal de contrôler les minorités ethniques”, précise-t-il. “Si les algorithmes s’améliorent considérablement, cela pourrait, en théorie, arriver – et c’est terrifiant.”

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire