Microsoft renforce les conditions d'accès à son logiciel de reconnaissance faciale. Cette décision s'inscrit dans les tentatives du géant technologique d'assumer ses responsabilités vis-à-vis de sa propre technologie. L'AI en matière de reconnaissance faciale peut en effet impacter fortement la société, si elle aboutit chez des personnes mal intentionnées, selon Microsoft.

Voilà ce qu'on peut lire dans un document appelé 'Responsible AI Standard', dans lequel l'entreprise révèle ses règles et ses normes. Dans la pratique, il s'agit des outils Azure Face API, Computer Vision et Video Indexer, auxquels l'accès devient nettement plus difficile. L'entreprise met d'ores et déjà hors ligne les services Azure, qui tentent d'analyser les émotions ou qui recherchent d'importants indicateurs identitaires tels l'âge, le genre, etc.

La reconnaissance faciale représente depuis des années déjà l'une des possibilités les plus (tristement) connues de l'AI et même si Microsoft dispose de plusieurs de ces services logiciels, l'entreprise est aussi l'un des acteurs les plus déterminés, lorsqu'il est question de son utilisation raisonnable. Microsoft demanda ainsi il y a des années déjà l'élaboration de lois relatives à la reconnaissance faciale et refusa en 2019 un contrat prévoyant la livraison de la technologie à la police américaine.

La reconnaissance faciale automatique peut grandement impacter les droits de l'homme, plus spécifiquement sa confidentialité. Suite à des protestations d'utilisateurs et à une série de procès, d'autres firmes, telles Facebook, ont également déjà nettement réduit l'utilisation (publique) de la reconnaissance faciale.

En de nombreux endroits, il n'existe cependant pas encore vraiment de cadre légal pour cette technologie encore relativement jeune, et Microsoft plaide donc provisoirement en faveur de normes autorégulatrices. Les clients qui veulent utiliser Face API, devront désormais remplir un formulaire et seront probablement contrôlés sur un certain nombre de points.

Microsoft renforce les conditions d'accès à son logiciel de reconnaissance faciale. Cette décision s'inscrit dans les tentatives du géant technologique d'assumer ses responsabilités vis-à-vis de sa propre technologie. L'AI en matière de reconnaissance faciale peut en effet impacter fortement la société, si elle aboutit chez des personnes mal intentionnées, selon Microsoft.Voilà ce qu'on peut lire dans un document appelé 'Responsible AI Standard', dans lequel l'entreprise révèle ses règles et ses normes. Dans la pratique, il s'agit des outils Azure Face API, Computer Vision et Video Indexer, auxquels l'accès devient nettement plus difficile. L'entreprise met d'ores et déjà hors ligne les services Azure, qui tentent d'analyser les émotions ou qui recherchent d'importants indicateurs identitaires tels l'âge, le genre, etc.La reconnaissance faciale représente depuis des années déjà l'une des possibilités les plus (tristement) connues de l'AI et même si Microsoft dispose de plusieurs de ces services logiciels, l'entreprise est aussi l'un des acteurs les plus déterminés, lorsqu'il est question de son utilisation raisonnable. Microsoft demanda ainsi il y a des années déjà l'élaboration de lois relatives à la reconnaissance faciale et refusa en 2019 un contrat prévoyant la livraison de la technologie à la police américaine.La reconnaissance faciale automatique peut grandement impacter les droits de l'homme, plus spécifiquement sa confidentialité. Suite à des protestations d'utilisateurs et à une série de procès, d'autres firmes, telles Facebook, ont également déjà nettement réduit l'utilisation (publique) de la reconnaissance faciale.En de nombreux endroits, il n'existe cependant pas encore vraiment de cadre légal pour cette technologie encore relativement jeune, et Microsoft plaide donc provisoirement en faveur de normes autorégulatrices. Les clients qui veulent utiliser Face API, devront désormais remplir un formulaire et seront probablement contrôlés sur un certain nombre de points.