Il y a un an, la Commission européenne présentait une stratégie pour l'intelligence artificielle (AI), qui allait stimuler tous les pays membres de l'UE à mettre au point leur propre stratégie AI nationale. La Belgique l'a fait le mois dernier et a suivi ainsi l'exemple de bien d'autres états membres. Le fil rouge dans toutes ces stratégies, outre l'augmentation des investissements: un cadre éthique adéquat pour l'AI, ce qui n'étonnera personne.

L'utilisation de l'AI suscite toujours plus de questions éthiques, alors même que de nombreuses organisations ne savent pas à quel saint se vouer. Les développeurs en AI n'ont aujourd'hui encore pas souvent conscience que la technologie qu'ils mettent au point - souvent avec les meilleures intentions -, peut aussi avoir des effets négatifs, par exemple en prenant des décisions discriminatoires, en protégeant insuffisamment le respect de la vie privée ou en accordant trop peu d'attention à l'impact social de la technologie.

Si l'on veut s'assurer que la technologie soit non seulement performante, mais aussi fiable, il est absolument nécessaire de faire preuve d'un état d'esprit éthique lors de son développement. Mais comment y arriver concrètement?

La réponse de l'Europe

Le fait que tout cela ne soit pas aussi simple qu'on le croit, Google l'a démontré tout récemment encore, lorsqu'elle a mis fin au bout d'une semaine du comité consultatif éthique qu'elle venait de mettre sur pied - il est même apparemment possible de se lancer dans l'éthique de manière inesthétique...

L'appel à des conseils pratiques se fait toujours plus explicite. Chaque entreprise ne peut en effet prendre une armée de spécialistes éthiques à son service. Au niveau européen, cet appel a aujourd'hui trouvé un écho avec la publication de directives éthiques pour l'AI. Ces directives résultent du travail d'un groupe d'experts en AI, qui a été spécifiquement mis sur pied par la Commission européenne. 52 experts aux acquis très divers (chercheurs, philosophes, juristes, représentants d'entreprise, ONG, organisations de consommateurs, voire syndicats) ont travaillé assidûment ces neuf derniers mois pour finaliser un document proposant une méthode pour aborder les nombreuses questions éthiques que pose l'AI.

Les gens sont liés à toutes sortes de règles juridiques et évoluent dans un cadre éthique spécifique, qui leur indique comment ils doivent et peuvent se comporter ou pas. Ces règles déterminent la manière dont ils prennent des décisions, et veillent à ce qu'ils puissent être tenus pour responsables de leurs actes. Que faire désormais si des machines peuvent à leur tour prendre des décisions? Comment faire pour qu'elles respectent elles aussi les règles juridiques et éthiques?

La réponse à cette question est cruciale, selon le groupe d'experts. Aussi longtemps que les citoyens ne pourront être sûrs que la technologie est fiable, ils ne l'utiliseront pas et ne bénéficieront donc pas de ses nombreux avantages. Les directives ont donc comme but d'aider sans engagement les organisations européennes à rendre leur technologie plus fiable. Et plus compétitive.

L'éthique comme atout

Il n'y a en effet plus seulement une compétition mondiale à qui aura la meilleure technologie. Il est question aujourd'hui aussi de la technologie qui respecte le mieux les règles éthiques. 'Ethics is the new black'.

Les utilisateurs veulent des produits dans lesquels ils peuvent avoir confiance. Pour les fabricants, cela peut prendre des années avant de se faire une bonne réputation, mais il suffit d'un seul fiasco éthique, et cette réputation peut voler en éclats en moins d'une journée.

Cela impacte non seulement le comportement d'achat des utilisateurs, mais aussi la compétitivité européenne, qui a un besoin urgent d'un développement à grande échelle de cette technologie stratégique. Si des entreprises européennes parviennent à rendre l'AI fiable, cela sera non seulement très apprécié par les citoyens de l'UE, mais l'AI pourra aussi être utilisée comme atout compétitif sur le marché global. "AI européenne = AI fiable". L'éthique et la compétitivité main dans la main donc. Il y va par conséquent non seulement de l'intérêt individuel des utilisateurs, mais aussi de l'intérêt collectif de l'Europe que l'AI soit développée et utilisée en conformité avec nos valeur fondamentales.

Le droit face à l'éthique?

Les travaux du groupe d'experts appelle aussi un certain nombre de questions à propos de la politique AI européenne de manière plus générale, ainsi que du rôle de la réglementation face aux directives. Quand des directives non contraignantes s'avéreront insuffisantes, devront-elles alors faire place à une réglementation? Certains esprits critiques brandissent l'argument, selon lequel les directives ne servent simplement qu'à postposer la réglementation des questions problématiques, voire à les éviter, et à permettre ainsi aux grandes entreprises de poursuivre leur route, sans avoir à assumer leurs responsabilités légales. Il y en a même qui vont jusqu'à prétendre que l'Europe met des directives au point uniquement pour stimuler sa compétitivité.

Ce genre de raisonnement ignore cependant le fait qu'il existe à présent déjà pas mal de réglementations: pensons au fameux GDPR, qui postule une protection rigoureuse des données personnelles, ou encore à la législation anti-discrimination, qui s'applique tant aux algorithmes programmés par des gens qu'aux personnes elles-mêmes. Il ne fait aucun doute qu'il est nécessaire d'évaluer la réglementation existante et de l'adapter là où c'est utile, afin de veiller à ce qu'il n'y ait pas de failles dans le système. Mais à côté de cela, les directives éthiques ont aussi un important rôle complémentaire à jouer.

Le droit et l'éthique sont complémentaires et apportent chacun leur contribution pourà garantir que le développement et l'utilisation de l'AI respectent nos valeurs fondamentales. La démarcation de leurs rôles respectifs n'est pas statique: il nous appartiendra à tous de surveiller dans les semaines, mois et années à venir l'évolution de la technologie, et d'étudier quel type de règle fera en sorte que nous puissions nous assurer en même temps de maximaliser les avantages de l'AI et de minimaliser ses risques.

Période d'essai

Les directives du groupe d'experts ont pour but de fournir un cadre éthique, qui puisse s'appliquer horizontalement sur toutes les activités AI. Via une liste d'évaluations pratiques se composant de questions concrètes (avez-vous informé les utilisateurs sur les capacités et les limites de votre système? Avez-vous analysé l'empreinte écologique de votre système?), on veut d'un seul coup apporter une aide progressive à tous les développeurs et utilisateurs AI. Il s'agit toutefois là d'un défi, étant donné que les systèmes AI et leurs sensibilités éthiques sont souvent très liés au contexte. Un problème, qui peut s'avérer peu pertinent dans un contexte déterminé, peut être décisif dans une autre situation.

La Commission a par conséquent lancé une primeur européenne: les directives passeront par une période d'essai pratique se terminant à la fin de l'année. Tous les développeurs et utilisateurs AI seront invités à les appliquer, à les tester, puis à faire connaître leurs réactions sur ce qui fonctionne ou pas, ainsi que sur la manière d'apporter des améliorations. De manière expérimentale, l'Europe veille donc à apprendre sur le tas, conjointement avec les développeurs et utilisateurs AI, dans un domaine qui ne fera que gagner en importance au cours des années à venir. Et qui devra répondre sans aucun doute à des règles tant éthiques que juridiques. Vous êtes les bienvenus si vous voulez apporter vous aussi votre pierre à ce processus d'apprentissage commun.

A propos de l'auteure: Nathalie Smuha est chercheuse à la KU Leuven et spécialisée dans les aspects éthiques et juridiques de l'intelligence artificielle. Elle est aussi coordinatrice du groupe d'experts susmentionné. L'auteure écrit en son nom propre, ce qui signifie que tous les propos et avis repris ci-dessus reflètent strictement sa pensée et n'engagent en rien la KU Leuven et la Commission européenne.