Elle a appelé à faire une évaluation des risques que présentent différents systèmes qui s'appuient sur l'intelligence artificielle pour le droit à la vie privée ou encore la liberté de circulation et d'expression et ensuite de bannir, ou du moins de règlementer fortement, celles qui présentent les plus grands dangers.

Mais en attendant que ces évaluations puissent être menées à bien, "les États devraient imposer un moratoire sur les technologies qui présentent potentiellement un grand risque", a souligné l'ancienne présidente chilienne, lors de la présentation d'un nouveau rapport de ses services consacré à ce sujet.

Ce rapport, qui avait été demandé par le Conseil des droits humains - la plus haute instance de l'Onu dans ce domaine - s'est penché sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n'ait été correctement évalué. Les dysfonctionnements de l'IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou encore ont mené à des arrestations d'innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple.

"Le risque de discrimination lié à des décisions basées sur l'intelligence artificielle - des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine - n'est que trop réel", a insisté Mme Bachelet. Le rapport a souligné que ces intelligences artificielles sont entraînées avec l'aide d'énormes bases de données, dont la constitution se fait souvent de manière opaque. Ces bases de données elles-mêmes peuvent être mal faites, dépassées et donc contribuer à des violations des droits humains.

La reconnaissance faciale en temps réel et à distance est ainsi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens.

"Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l'AI et permettre qu'elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup", a insisté la Haute-commissaire, même si elle reconnaît que "le pouvoir de servir les gens de l'IA est indéniable".

"Mais il en va de même de l'habilité de l'IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible", a-t-elle mis en garde.

Elle a appelé à faire une évaluation des risques que présentent différents systèmes qui s'appuient sur l'intelligence artificielle pour le droit à la vie privée ou encore la liberté de circulation et d'expression et ensuite de bannir, ou du moins de règlementer fortement, celles qui présentent les plus grands dangers.Mais en attendant que ces évaluations puissent être menées à bien, "les États devraient imposer un moratoire sur les technologies qui présentent potentiellement un grand risque", a souligné l'ancienne présidente chilienne, lors de la présentation d'un nouveau rapport de ses services consacré à ce sujet.Ce rapport, qui avait été demandé par le Conseil des droits humains - la plus haute instance de l'Onu dans ce domaine - s'est penché sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n'ait été correctement évalué. Les dysfonctionnements de l'IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou encore ont mené à des arrestations d'innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple."Le risque de discrimination lié à des décisions basées sur l'intelligence artificielle - des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine - n'est que trop réel", a insisté Mme Bachelet. Le rapport a souligné que ces intelligences artificielles sont entraînées avec l'aide d'énormes bases de données, dont la constitution se fait souvent de manière opaque. Ces bases de données elles-mêmes peuvent être mal faites, dépassées et donc contribuer à des violations des droits humains.La reconnaissance faciale en temps réel et à distance est ainsi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens."Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l'AI et permettre qu'elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup", a insisté la Haute-commissaire, même si elle reconnaît que "le pouvoir de servir les gens de l'IA est indéniable"."Mais il en va de même de l'habilité de l'IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible", a-t-elle mis en garde.