Els Bellens
Derrière le machine learning : rien d’autre que des humains
Nous créons de plus en plus souvent des intelligences artificielles, capables de prendre des décisions ou de calculer par elles-mêmes, par le biais du machine learning (apprentissage machine) et d’algorithmes. Ces IA ne sont néanmoins pas aussi objectives que ce que beaucoup semblent penser, écrit Els Bellens, rédactrice de Data News.
En Australie, Volvo a conclu que le système de capteurs permettant à sa voiture autonome de calculer les distances ne reconnaissait pas les kangourous. En soi, cela relève du fait divers, d’une goutte dans l’océan du développement des voitures autonomes, voire d’un concombre en période d’actualité estivale. Mais en même temps, il s’agit d’un très bel exemple de ce que j’appellerais par facilité le “developer bias” ou “parti pris du développeur”. L’idée que tous ces algorithmes et états de machine learning soient également développés par l’homme. Or, il lui arrive d’oublier certaines choses.
En effet, on peut facilement s’imaginer qu’un développeur Volvo suédois ou américain ne pense pas tout de suite à ces animaux, qu’il rencontre rarement au quotidien. L’élan, bien plus présent dans ces contrées nordiques, est, par exemple, facilement reconnu.
On constate un phénomène similaire avec les logiciels de reconnaissance faciale. Le code de ce type de logiciels est souvent initialement écrit et testé par les programmeurs (généralement des hommes blancs) et, tous humains qu’ils sont, ils ne pensent pas toujours aux autres types de peau. Les conséquences sont évidentes. Les logiciels de reconnaissance faciale peinent depuis longtemps à reconnaître les visages à la peau sombre. Lorsque le Kinect de Microsoft a présenté une caméra pour la console de jeu Xbox en 2010, il a été considéré comme raciste, car il ne reconnaissait pas les visages foncés. “Il s’agit d’un problème d’éclairage”, avait également déclaré HP lorsqu’une vidéo YouTube très regardée a montré que la fonction “face tracking” de sa caméra éprouvait des difficultés à suivre une personne noire, mais pas son collègue blanc de peau.
Recherchons collaborateur éthique (h/f) pour apprendre aux machines à penser
C’est logique. Nous ne sommes que des humains, influencés par notre environnement et nos expériences. Une étude menée par l’université de Texas a, par exemple, calculé qu’un logiciel développé en Extrême-Orient obtenait de meilleurs résultats en matière d’identification de visages asiatiques. Un logiciel conçu en Amérique du Nord s’avérait, quant à lui, meilleur pour l’identification de visages blancs. D’après le chercheur en chef Jonathon Phillips, ces différences sont étroitement liées aux fichiers de données sur la base desquels fonctionnent les machines. “Les intelligences artificielles apprennent à partir des exemples sur lesquels elles ont été entraînées. Par conséquent, si vous lui ne fournissez pas un mélange approprié de visages, l’IA ne sera peut-être pas en mesure de reconnaître des éléments du monde réel”, explique Jonathon Phillips dans une interview à The Guardian. “Si vous n’utilisez qu’un petit nombre d’images d’un sous-groupe ethnique, par exemple, l’IA n’obtiendra pas d’aussi bons résultats pour ce groupe.”
Or, c’est souvent là que le bât blesse. Pensez notamment à beauty.ai, “premier concours de beauté international avec une intelligence artificielle pour jury”. Il devait s’agir de la première décision “objective” en matière de beauté, prise par une IA exempte de tout préjugé. Plus de six mille personnes du monde entier ont envoyé leur photo. Il est néanmoins fou de constater que la grande majorité des 44 vainqueurs se composait de personnes à la peau blanche. Comme l’a expliqué un chercheur au site Internet Vice, le problème se situait au niveau du fichier de données. Les exemples sur lesquels l’algorithme avait été entraîné n’étaient pas correctement équilibrés en termes de races.
Le machine learning est aussi bon que les fichiers de données sur lesquels il se base.
Le New York Times parle déjà du problème “white guy” de l’IA : l’idée que ces machines et algorithmes sont avant tout créés pour et par des hommes blancs. Exemple amusant : vous êtes-vous déjà demandé pourquoi tous ces assistants numériques sympathiques et très serviables (les Alexa, Siri et autres Cortana) étaient tous des dames à la voix mélodieuse ? Ceci, alors qu’il existe également Samuel L. Jackson. La problématique est évidemment bien plus large. Il serait trop facile de jeter la pierre à une poignée de programmeurs.
Le machine learning est aussi bon que les fichiers de données sur lesquels il se base. En principe, la technologie utilise des algorithmes pour traiter des données, calculer des modèles, ainsi qu’émettre des prédictions, prendre des décisions et effectuer des calculs très intelligents. Tout cela permet de créer des applications utiles. Pensez notamment aux moteurs de recherche, à la reconnaissance faciale, aux assistants numériques, etc. Et plus l’algorithme étudie de données, plus il se perfectionne. C’est l’une des raisons pour lesquelles les données sont devenues si précieuses ces dernières années. Mais comme lors de tout apprentissage, les machines peuvent également opter pour des préférences inhérentes.
Les IA sont également développées par l’homme. Or, il lui arrive d’oublier certaines choses.
Une étude passionnante de 2016 sur les préjugés dans le machine learning a, par exemple, révélé que même un algorithme entraîné sur des articles de Google News restituait des faits tels que “l’homme est associé à un programmeur et la femme à une femme au foyer”. Et vous savez, statistiquement, ce n’est pas erroné. En effet, la majorité des personnes actives en IT sont des hommes et il y a statistiquement plus de femmes au foyer que d’hommes au foyer. Ce n’est pas pour autant qu’il est judicieux d’introduire cette information dans un algorithme. Surtout si ces algorithmes et fichiers de données sont ensuite intégrés à des logiciels, par exemple, utilisés par des départements de ressources humaines ou des sites d’offres d’emploi. En effet, si les offres d’emploi en IT ne sont envoyées qu’à des hommes, cela peut poser problème.
Un tel fichier de données doit, en d’autres termes, être constitué avec soin. Dès les premières étapes d’entraînement d’une IA, il faut réfléchir en détail aux implications et à l’impact sur la société au sens large. Notamment en termes d’éthique. De multiculturalisme. De considérations hippies. Des choses sur lesquelles ne s’arrêtent pas spécialement, pardonnez mes préjugés, les informaticiens de la Silicon Valley et leur “culture bro“, souvent très prononcée. Maintenant que la technologie influence de plus en plus notre vie, cela constitue néanmoins une base importante. Si une voiture autonome doit décider si elle me renverse ou pas, j’aimerais autant qu’une personne, ou de préférence plusieurs, y ait intensément réfléchi. Le MIT se penche déjà sur la question, d’ailleurs. Cette problématique pourrait offrir des opportunités de carrière passionnantes pour un master en philosophie morale ou en éthique. Recherchons collaborateur éthique (h/f) pour apprendre aux machines à penser.
Ou pourrions-nous simplement résoudre le problème au moyen d’un algorithme ?
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici