En juin de l'année dernière, la Commission européenne créait une nouvelle cellule de réflexion composée de 52 experts en vue d'aider à soutenir la stratégie européenne en matière d'AI. Ce groupe d'experts présente aujourd'hui sept étapes essentielles pour atteindre une intelligence artificielle fiable.

D'abord, l'intelligence artificielle ne pourra jamais restreindre l'autonomie humaine. De plus, les systèmes AI devront être suffisamment robustes pour faire face aux erreurs et aux inconsistances. En outre, l'Europe insiste sur l'importance du respect de la vie privée: tout un chacun devra disposer d'un total contrôle sur ses données, et ces dernières ne pourront pas être utilisées pour nuire ou discriminer des personnes. L'accent est également mis sur la transparence: "Les systèmes AI devront pouvoir être tracés."

Ensuite, ces systèmes devront également "tenir compte de la diversité des compétences et des besoins humains et être accessibles à tout le monde". Selon la Commission européenne, l'intelligence artificielle devra en outre être utilisée "pour produire du changement social positif et pour favoriser la durabilité et la responsabilité écologique". Enfin, on devra aussi pouvoir demander des comptes à l'intelligence artificielle. C'est ainsi que les mécanismes devront être paramétrés de façon à veiller à ce que les systèmes AI soient responsables de leurs actes.

"La dimension éthique de l'AI ne sera pas un luxe superflu. Ce n'est que si la confiance est de mise que notre société pourra profiter pleinement de cette technologie", déclare le commissaire européen Andrus Ansip dans un communiqué de presse: "En même temps, la focalisation sur une AI éthique pourra nous assurer une situation où tout le monde sera gagnant. Elle pourra en effet aussi fournir un avantage concurrentiel à l'Europe: nous pourrons devenir le numéro un dans le développement de l'intelligence artificielle fiable pour les humains."

Il ne s'agit ici pas (encore) d'une loi, mais de directives sans engagement pour construire des systèmes fiables. La Commission européenne entend à présent tester leur faisabilité pratique. Une période d'essai démarrera cet été. Les entreprises, services publics et organisations intéressés peuvent déjà s'inscrire dans ce but. A partir de leur feedback, les recommandations seront évaluées au début de l'année prochaine.

"Les directives passeront par une période d'essai pratique jusqu'à la fin de l'année. Tous les développeurs et utilisateurs AI sont invités à les appliquer, à les tester, puis à faire part de leurs réactions à propos de ce qui fonctionne ou pas et sur la manière d'y apporter des améliorations", explique Nathalie Smuha, coordinatrice du groupe d'experts en AI, à Data News.

Agoria testera les directives éthiques

La fédération technologique Agoria nous a informés qu'elle testera au cours des prochains mois, conjointement avec les entreprises qui en font partie, les directives susmentionnées pour savoir si elles sont applicables au développement et à la mise sur le marché de l'intelligence artificielle. "Sur base de notre input, nous espérons en arriver à un document qui soit utilisable par l'industrie pour créer des systèmes AI fiables, qui pourront représenter une plus-value pour notre société", déclare-t-on chez Agoria.

En même temps, la fédération technologique signale que le contexte, dans lequel les systèmes AI seront utilisés, doit être pris en considération. "Divers contextes posent diverses exigences. La fiabilité d'une appli médicale est nettement plus cruciale que celle d'un système AI qui prévoit le genre musical que vous apprécieriez. En outre, l'éthique n'est pas le seul élément essentiel, dans la mesure où la conformité légale et la robustesse joueront également un rôle très important dans la réalisation de systèmes AI fiables."