Des experts en désarmement se penchent sur les ‘robots tueurs’
Depuis ce lundi, des spécialistes du désarmement de plus de 75 pays se retrouvent à Genève autour de la table des négociations en vue de limiter le recours à ce qu’on appelle les ‘killer robots’ (robots tueurs) dans les conflits.
L’expression ‘killer robots’ couvre un ensemble de machines de guerre qui, grâce à l’intelligence artificielle, peut rechercher des cibles sans contrôle (humain) en vue de les détruire. Sur base des données qui y sont saisies, elles décident par elles-mêmes à quoi ressemble une cible, comment elle se déplace et quand il faut l’attaquer. Actuellement, ce genre d’arme autonome n’est pas encore utilisé, mais en raison des développements technologiques rapides, des esprits critiques réclament dans l’urgence des accords à l’échelle internationale.
Le président de la réunion organisée à Genève, l’ambassadeur indien Amandeep Gill, avait estimé il y a des mois déjà qu'”il ne faut pas dramatiser les choses”. “Les robots ne sont pas prêts de prendre le contrôle du monde”, avait-il encore ajouté pour ne pas semer la panique.
L’Allemagne et la France optent en tout cas pour une mesure intermédiaire, sachant qu’il faut généralement des années, avant qu’on obtienne un texte définitif noir sur blanc. Ils ont donc choisi un ‘codex’ qui prévoit que toutes les armes doivent en fin de compte être contrôlées par l’homme. Ce codex présente l’inconvénient de ne pas être contraignant. De plus, les contrevenants ne peuvent être sanctionnés.
Vaste zone grise
Les missiles Patriot ne sont pas repris dans la catégorie ‘armes autonomes’: ils sont tirés automatiquement certes, mais pas avant qu’un humain n’ait programmé précisément la cible à atteindre. “Les armes autonomes décident par contre elles-mêmes de la cible. On ne leur intègre pas une bibliothèque de cibles”, explique Michael Biontino, jusqu’il y a peu l’expert allemand dans le domaine à Genève. “Mais entre les armes automatiques et autonomes, il existe une vaste zone grise.”
L’une des conventions précise que “les attaques doivent rester strictement limitées à des cibles militaires”. Mais des machines peuvent-elles respecter des conventions? La théorie veut que des personnes doivent être à même de s’en tenir à des accords contraignants à l’échelle internationale, même s’ils sont dans la pratique souvent foulés au pied.
La mise au point d’armes autonomes suscite dès lors tout un éventail de questions supplémentaires. Peuvent-elles savoir si quelqu’un est blessé ou veut se rendre? Ou si quelqu’un qui porte une arme, est vraiment un militaire? Ou encore si un soldat est un allié ou un ennemi?
Et qui peut être jugé responsable, si une arme autonome se trompe? Le codex présenté par Paris et Berlin est, selon un esprit critique, un tigre édenté de par l’absence d’un accord contraignant en droit international.