Le secteur public est-il prêt pour l’IA ?
Les administrations déploient le cloud, les villes intelligentes, les micro-services. Entre-temps, une réglementation générale sur la vie privée a vu le jour, mais qu’en est-il de l’intelligence artificielle ? Des règles existent-elles et comment un tel cadre devrait-il être mis en place ?
A la mi-mars, notre pays dévoilait sa stratégie en matière d’intelligence artificielle. Les ministres démissionnaires Alexander De Croo et Philippe De Backer présentaient, après concertation avec les fédérations sectorielles et divers chercheurs, une série de recommandations et un plan intitulé IA4Belgium. ” Nous avons pris contact avec les experts en leur demandant ce qu’il fallait prévoir pour mettre en place une stratégie belge, explique Philippe De Backer. L’objectif est de créer un ‘momentum’ pour positionner la Belgique sur la carte de l’IA. ”
Ce ‘momentum’ doit encore venir avec, notamment, un programme de formation universel, un cadre légal actualisé, des règles éthiques et de la transparence. Dans ce domaine, la Belgique est en retard par rapport à ses voisins, mais en ce qui concerne ces règles éthiques, tous les pays se tournent désormais vers l’Europe qui avait déjà édicté des règles relatives à la vie privée numérique. Des règles en matière d’IA sur laquelle planche toujours l’UE, explique Mieke De Ketelaere qui était à l’époque encore Ethical AI Evangelist chez SAS, mais travaille désormais chez imec. Elle a collaboré avec la Commission européenne comme ‘challenger’ sur ces directives. ” Et je les trouve trop génériques, confie-t-elle à Data News. Si vous prenez l’exemple du biais [la partialité, NDLR], cela va tellement dans toutes les directions que le concept reste finalement assez vague. Les directives proposées demeurent très globales, sans impact concret. ” A l’en croire, le projet tient en tout cas trop peu compte de l’apport de différents secteurs. ” Le biais en RH est totalement différent du biais en lutte contre la délinquance, explique-t-elle encore. Et ce biais n’est encore que l’un des éléments de l’éthique. Ils y travaillent, mais il y a encore du pain sur la planche. Et lorsque vous vous présentez comme expert en IA, c’est un peu comme être expert en médecine. Mais on n’est pas vraiment expert. On peut par exemple être spécialisé dans la lutte contre le cancer de la peau, mais en matière d’IA, tel n’est pas le cas. Il n’y a pas de véritable expert, mais uniquement une personne spécialisée dans un système d’IA spécifiquement pour un domaine, par exemple les ressources humaines. Or ces directives ne sont pas à ce point spécifiques. Dès lors, il y a encore pas mal d’améliorations à prévoir. ”
Et ailleurs…
L’Europe n’est évidemment pas la seule à plancher sur un cadre en IA. L’un des pays les plus avancés dans ce domaine est Singapore. Le pays se présente lui-même comme un modèle de gouvernance en IA, certainement en Asie, tout en étant le premier pays de la région à éditer un Model IA Governance Framework. Pour sa rédaction, l’IMDA (Infocomm and Media Development Authority, le régulateur singapourien des télécoms) a collaboré avec le secteur privé et des experts en méga-données. ” Nous voulions un cadre qui s’appuie sur deux grands principes. Tout d’abord, les décisions qui sont prises avec ou à l’aide de l’intelligence artificielle doivent être explicables, transparentes et justifiées vis-à-vis des consommateurs. Ensuite, les solutions d’IA conçues par les entreprises doivent donner à l’homme une position centrale “, explique Zee Kin Yeong, ‘assistant chief executive’ de l’IMDA. Ces directives prévoient notamment la nécessité d’une gestion des données. Autre aspect intéressant, une évolution de la ‘conformité’ (le respect de la loi) vers la redevabilité (responsabilité). ” Singapore est consciente qu’un cadre solide de protection des données est nécessaire [pour donner confiance aux citoyens dans la technologie, NDLR]. Pour bâtir un écosystème de la confiance, nous devons aller plus loin qu’un simple respect pro forma de la législation sur la vie privée. ”
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici