Ces actionnaires, qui pèsent conjointement quelque 1,32 milliard de dollars dans le capital d'Amazon, invitent l'entreprise à effectuer une enquête indépendante quant à savoir si les droits de l'homme ne sont pas spoliés, lorsque des services publics utilisent la reconnaissance faciale. La proposition émane de l'association non marchande OpenMIC, qui avait précédemment déjà réunit des actionnaires activistes désireux de s'opposer au projet-pilote de Google de produire un moteur de recherche censuré pour la Chine.

La cible cette fois, c'est l'outil de reconnaissance des visages d'Amazon, baptisé Rekognition. Cet outil a déjà fait l'objet de critiques de la part de groupes de défense des droits de l'homme, tels l'American Civil Liberties Union, à cause de son côté partial. Le logiciel est vendu par Amazon à des services de police locaux, mais l'entreprise le propose à présent aussi aux services d'immigration et de douane. Voilà ce qui a engendré une levée de boucliers de la part des employés mêmes de l'entreprise.

Selon Amazon, il n'y a aucun problème, et le logiciel qu'elle vend, s'avère "précieux" dans le cadre du travail policier. De son côté, OpenMIC espère en arriver à un vote à propos de la problématique lors de la prochaine réunion des actionnaires.

C'est déjà la énième fois que des géants technologiques sont pointés du doigt par leur personnel, leurs actionnaires et leurs clients, en raison d'importants contrats conclus avec des autorités. La crainte d'abus de la part de l'intelligence artificielle, et d'une violation des droits de l'homme en est pour beaucoup, surtout dans le climat politique turbulent actuel qui règne aux Etats-Unis. Le scandale, par lequel la police des frontières séparait les enfants d'immigrants de leurs parents, a par exemple provoqué des protestations chez Salesforce, qui a signé des contrats avec la police des frontières américaine. A l'époque aussi, des collaborateurs de Microsoft ont invité leur entreprise à résilier le contrat conclu avec le service de police à l'immigration ICE.