Il manque actuellement un cadre par lequel on pourrait vraiment exiger que Facebook (ou une autre entreprise) explique sur quelles bases une décision automatique a été prise. Et même si cette possibilité existait, il faudrait encore savoir si ces explications suffiraient. C'est ainsi qu'une mère de famille américaine ne sait encore et toujours pas pourquoi son haut-parleur intelligent Amazon Echo a enregistré une conversation sur du parquet, avant de la transférer à un collègue de son mari. Les 800 médecins et professionnels de la santé ne recherchent peut-être pas une explication, mais auraient à tout le moins apprécié un processus plus rapide pour le partage de leur lettre ouverte.

Le problème se compose de deux défis: un manque d'explications et une mise au point lente. Le consommateur n'a d'autre choix que de demander des explications, mais il est alors livré au bon vouloir d'une entreprise comme Facebook. Les géants technologiques choisissent de ne fournir que le minimum d'informations possible. La question se pose ici de savoir quel est ce minimum d'explications pour permettre de comprendre ce qui s'est passé. Doit-on par exemple se satisfaire d'un extrait des directives 'community' de Facebook, qui explique quel contenu ne peut être partagé aux yeux de l'entreprise?

Ensuite, quelqu'un qui est censuré, doit simplement pouvoir contester pareille décision. Tout comme dans un ascenseur bloqué, on peut utiliser un bouton bien précis pour signaler le problème. Le genre de mécanisme qui fait en sorte que nous fassions davantage confiance en la technologie. De plus, il s'agit dans ce cas-ci de médias sociaux rapides. On doit donc se demander pendant combien de temps on peut accepter que quelqu'un soit abusivement censuré?

L'Europe examine s'il faut une réglementation pour l'AI et de quel genre. Différents principes ont déjà été présentés, auxquels les systèmes à intelligence artificielle doivent satisfaire. Pour ce thème, deux nous paraissent indispensables: explainability et redress. Le premier est le droit de recevoir une explication sur la manière, dont une décision est prise. Le second principe stipule que la (possibilité de) rectification est nécessaire en tant que condition pour garder la confiance dans des systèmes qui peuvent se tromper.

Un cadre de principes ou de lois le permettant serait une première étape. Mais cela ne suffira pas. Il existe tellement d'applications différentes en AI qu'il n'est pas simple de les soumettre à une seule loi ou règle. On ne pourrait quasiment pas répondre autrement aux deux questions susmentionnées que par domaine d'application avec les parties prenantes. On saurait ainsi ce qu'elles attendent et ce qui est possible sur le plan technique. Le Kenniscentrum Data & Maatschappij (centre de la connaissance en données et société) entend déjà élaborer des mesures pour y arriver et se tourne vers la Grande-Bretagne, où cela a déjà été fait avec le projet ExplAIn.

Facebook a actuellement encore l'avantage de faire résoudre un problème complexe de manière automatisée. La firme en a le droit. Mais nous, les citoyens, avons droit à des explications et à exiger une rectification de toute décision qui nous touche, peu importe qu'elle ait été prise par une personne ou par une machine.

Rob Heyman travaille chez imec-SMIT-VUB en tant que coordinateur auprès du Kenniscentrum Data & Maatschappij. Annelien Smets est chercheuse chez imec-SMIT-VUB. Elle examine la 'sérendipité' au niveau de la personnalisation et des systèmes de recommandation.

Il manque actuellement un cadre par lequel on pourrait vraiment exiger que Facebook (ou une autre entreprise) explique sur quelles bases une décision automatique a été prise. Et même si cette possibilité existait, il faudrait encore savoir si ces explications suffiraient. C'est ainsi qu'une mère de famille américaine ne sait encore et toujours pas pourquoi son haut-parleur intelligent Amazon Echo a enregistré une conversation sur du parquet, avant de la transférer à un collègue de son mari. Les 800 médecins et professionnels de la santé ne recherchent peut-être pas une explication, mais auraient à tout le moins apprécié un processus plus rapide pour le partage de leur lettre ouverte.Le problème se compose de deux défis: un manque d'explications et une mise au point lente. Le consommateur n'a d'autre choix que de demander des explications, mais il est alors livré au bon vouloir d'une entreprise comme Facebook. Les géants technologiques choisissent de ne fournir que le minimum d'informations possible. La question se pose ici de savoir quel est ce minimum d'explications pour permettre de comprendre ce qui s'est passé. Doit-on par exemple se satisfaire d'un extrait des directives 'community' de Facebook, qui explique quel contenu ne peut être partagé aux yeux de l'entreprise?Ensuite, quelqu'un qui est censuré, doit simplement pouvoir contester pareille décision. Tout comme dans un ascenseur bloqué, on peut utiliser un bouton bien précis pour signaler le problème. Le genre de mécanisme qui fait en sorte que nous fassions davantage confiance en la technologie. De plus, il s'agit dans ce cas-ci de médias sociaux rapides. On doit donc se demander pendant combien de temps on peut accepter que quelqu'un soit abusivement censuré?L'Europe examine s'il faut une réglementation pour l'AI et de quel genre. Différents principes ont déjà été présentés, auxquels les systèmes à intelligence artificielle doivent satisfaire. Pour ce thème, deux nous paraissent indispensables: explainability et redress. Le premier est le droit de recevoir une explication sur la manière, dont une décision est prise. Le second principe stipule que la (possibilité de) rectification est nécessaire en tant que condition pour garder la confiance dans des systèmes qui peuvent se tromper.Un cadre de principes ou de lois le permettant serait une première étape. Mais cela ne suffira pas. Il existe tellement d'applications différentes en AI qu'il n'est pas simple de les soumettre à une seule loi ou règle. On ne pourrait quasiment pas répondre autrement aux deux questions susmentionnées que par domaine d'application avec les parties prenantes. On saurait ainsi ce qu'elles attendent et ce qui est possible sur le plan technique. Le Kenniscentrum Data & Maatschappij (centre de la connaissance en données et société) entend déjà élaborer des mesures pour y arriver et se tourne vers la Grande-Bretagne, où cela a déjà été fait avec le projet ExplAIn.Facebook a actuellement encore l'avantage de faire résoudre un problème complexe de manière automatisée. La firme en a le droit. Mais nous, les citoyens, avons droit à des explications et à exiger une rectification de toute décision qui nous touche, peu importe qu'elle ait été prise par une personne ou par une machine.