Le conseil consultatif de Google pour l’éthique dans l’AI supprimé au bout… d’une semaine
Google a mis fin à son conseil consultatif pour l’éthique dans l’intelligence artificielle. Or ce comité n’était en place que depuis une semaine, mais il avait dès le début fait l’objet de nombreuses critiques.
La composition de ce comité n’avait pas été une sinécure. Dans son Advanced Technology External Advisory Council (ATEAC), Google voulait réunir des experts AI extérieurs à l’entreprise, afin qu’ils jettent un regard éthique sur ses projets.
Lors de la recherche de ces experts, Google a, pour des raisons d’interprétation, procédé cependant de manière par trop diplomatique. Une vague de protestations cibla surtout l’un des membres du conseil, Kay Cole James de la cellule de réflexion conservatrice Heritage Foundation. Via cette cellule de réflexion, James se serait notamment opposée aux droits des transgenres, ainsi qu’à des mesures visant à limiter le changement climatique, allant ainsi à l’encontre des valeurs défendues par de nombreux collaborateurs de Google. Ils lancèrent donc une pétition, dans laquelle Kay Cole James est décrite comme ‘anti-transgenre, anti-LGBTQ et anti-migrants’,
Deux mille signatures plus tard, voici que Google met fin à l’ensemble du projet. “Il est clair que dans les conditions actuelles, l’ATEAC ne peut fonctionner comme nous le voudrions”, affirme un porte-parole de Google dans un communiqué. “Nous mettons donc fin au conseil consultatif et allons plancher sur des alternatives. Nous continuons cependant d’adopter une attitude responsable au niveau de notre travail sur les principales questions que pose l’AI. Nous allons rechercher d’autres moyens d’écoute d’avis externes sur ces sujets.”
Ce n’est – et de loin – pas la première fois que le travail AI de Google est examiné à la loupe par ses propres collaborateurs. Précédemment déjà, l’entreprise s’était vue contrainte de résilier un contrat conclu avec le Pentagone pour la fourniture de la reconnaissance de l’image à intégrer à des drones. Des collaborateurs s’étaient aussi sérieusement opposés à ce projet. En réaction, le CEO de Google, Sundar Pichai, avait introduit une série de directives AI auxquelles son entreprises devait se tenir. L’une d’elles stipule que Google ne fournira jamais de l’AI pour la création d’armes.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici