Microsoft a refusé de fournir la reconnaissance faciale à la police

Els Bellens

Microsoft a rejeté une requête en vue d’installer la reconnaissance faciale dans les voitures et les caméras portables de la police dans l’état de Californie. L’entreprise se ferait du souci à propos des droits de l’homme.

Un département de police californien non nommément cité voulait utiliser la reconnaissance faciale dans le cadre de la recherche de suspects, mais Microsoft a refusé, selon le directeur Brad Smith. Et d’ajouter que cette reconnaissance faciale a été formée essentiellement à partir de photos d’hommes blancs et que cela pourrait donc générer un profilage incorrect des femmes et des minorités. Le projet de la police était d’effectuer des scans faciaux lors de contrôles de la circulation, pour savoir si les conducteurs ne figuraient pas aussi dans la base de données de suspects. Suite à un déséquilibre dans cette base de données, des erreurs pourraient se manifester assez souvent vis-à-vis des femmes et des minorités, ce qui ferait en sorte qu’il y aurait dans ces catégories davantage d’arrestations à des fins d’audition. “Nous leur avons donc dit que nous ne pouvions pas accéder à leur demande”, a expliqué Smith.

Il a tenu ces propos lors d’une conférence consacrée à ‘l’intelligence artificielle ciblant l’humain’ organisée à l’université de Stanford. Ce fut là l’un des exemples qu’il cita pour démontrer que son entreprise osait dire non à des accords, par lesquels la technologie pouvait engendrer de la discrimination ou de l’abus.

Au cours de cette même conférence, Smith indiqua aussi que Microsoft avait rejeté une offre d’intégration de la reconnaissance faciale dans un système de caméras installé un peu partout dans la capitale d’un pays non nommément cité. Cet accord aurait capoté, parce que le pays en question n’était pas un état libre, selon l’organisation non marchande Freedom House, et qu’il y avait donc la crainte que le système soit utilisé pour mettre la population sous pression.

Ethique ou lucratif?

Microsoft est l’une des voix les plus puissantes à se faire entendre dans le débat sur la façon dont les entreprises technologiques doivent équilibrer l’impact éthique de leur travail et leur marge bénéficiaire. L’intelligence artificielle est à cet égard un exemple type, parce qu’elle peut être particulièrement puissante, mais qu’elle est susceptible aussi d’être abusée par des régimes autoritaires. Précédemment déjà, Microsoft avait appelé à réglementer la technologie. L’entreprise promet elle-même de ne jamais collaborer à des armes autonomes ou à des robots ‘tueurs’. Elle tente également d’expliquer le raisonnement éthique sous-jacent à ses décisions. C’est ainsi qu’elle indique avoir bel et bien décidé de fournir la reconnaissance faciale à une prison américaine, non sans s’être assurée au préalable que les caméras seraient utilisées dans un environnement spécifiquement adapté, destiné à améliorer la sécurité dans cette institution.

Nombre de firmes technologiques se débattent avec l’impact éthique de leur technologie. Google, par exemple, a élaboré des directives éthiques pour elle-même, après que des collaborateurs de l’entreprise se soient opposés à des projets en matière de caméras pour drones du Pentagone. Amazon, de son côté, fait l’objet de nombreuses critiques de la part de ses employés, voire de ses actionnaires à propos de la vente de sa technologie de reconnaissance faciale à des services de police.

Mais la vie n’est pas toujours facile non plus pour les entreprises, qui font de leur mieux sur le plan de l’éthique. C’est ainsi que Microsoft elle-même a été pointée du doigt, parce qu’elle a collaboré avec une université sous l’égide de l’armée chinoise. L’entreprise et l’université ont sorti conjointement trois rapports AI, dont un décrit des méthodes d’identification de lieux, où sont prises des photos et ce, via les personnes qui se trouvent sur celles-ci. La crainte existe en effet que les autorités chinoises puissent, avec cette technologie, encore amplifier ses possibilités de surveillance.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire