Des experts en AI veulent contrer la recherche sur les 'robots tueurs' en boycottant une université sud-coréenne

05/04/18 à 13:42 - Mise à jour à 13:42

Différents académiciens dans le monde entier se disent inquiets de la collaboration entre l'université sud-coréenne KAIST et Hanwha, l'un des plus importants fabricants d'armes dans ce pays asiatique.

Des experts en AI veulent contrer la recherche sur les 'robots tueurs' en boycottant une université sud-coréenne

© Bistrosavage

Lorsque le Korean Advanced Institute of Science and Technology (KAIST) annonça qu'il allait, conjointement avec Hanwha, démarrer un projet dans le but de développer des technologies AI à des fins militaires, les réactions du monde académique n'ont pas tardé.

Boycott international

C'est ainsi que le professeur Toby Walsh de l'université de South-Wales a rédigé une lettre ouverte dans laquelle il appelle publiquement à un boycott dudit projet. 'Il y a tellement de choses positives qui sont possibles avec l'AI, même dans un contexte militaire. Il est ici question d'une collaboration entre une université respectable et une organisation éthiquement douteuse dans le but de mettre au point des armes autonomes. Nous ne pouvons l'accepter', indique Walsh.

Concrètement, le boycott consisterait pour divers chercheurs et universités à ne plus collaborer avec le KAIST dans le cadre de programmes de recherche, à ne plus effectuer de visites dans cet institut et à ne plus recevoir des chercheurs de ce dernier. Si le KAIST promet de se retirer du projet des armes autonomes sans contrôle humain, ou s'il y a des preuves suffisantes démontrant qu'il ne s'agit pas là de recherche non-éthique, le boycott sera levé. Jusqu'à présent, plus de cinquante personnalités du monde académique ont déjà cosigné la lettre ouverte, dont Maurice Bruynooghe et Luc De Raedt de la KU Leuven, ainsi que Marco Dorigo de la VUB.

Sung-Chul Shin, directeur du KAIST, se dit très déçu de la réaction internationale: 'En tant qu'institution académique, nous accordons la plus haute importance aux normes éthiques et aux valeurs humaines. Nous n'allons pas développer des armes autonome ou des 'robots tueurs' sans contrôle humain.'

Dans l'annonce initiale du projet, tel semblait pourtant être l'objectif. Le KAIST et Hanwha effectueraient ensemble une recherche sur 'des systèmes décisionnels et de commandes à algorithmes de navigation basés sur l'intelligence artificielle et destinés à des sous-marins sans équipage', ainsi que sur 'des technologies de traçage et d'identifications AI'. Cette annonce a entre-temps été bel et bien retirée

Limite essentielle

L'expression 'sans contrôle human' constitue actuellement un thème très fortement débattu. Il existe pour l'instant déjà des armes autonomes, mais qui ont encore besoin d'une 'confirmation' spécifique de la part d'un humain, avant de pouvoir tuer quelqu'un. Pour d'aucuns, il s'agit là d'une limite essentielle. Voilà pourquoi 123 pays des Nations Unies se réuniront la semaine prochaine à Genève pour aborder les directives s'appliquant aux 'robots tueurs'. Selon Walsh, la réaction aussi forte que rapide à l'annonce de la collaboration entre le KAIST et Hanwha impactera à coup sûr les débats.

Nos partenaires