Laisserons-nous bientôt les robots se battre à notre place?

Le drone X-47B américain peut déjà décoller, naviguer et atterrir sans télécommande. Va-t-il bientôt aussi détruire de lui-même des cibles ennemies? © DARPA
Pieter Van Nuffel Journalist DataNews

Groen et Ecolo ont transmis une résolution exigeant une interdiction préventive des robots tueurs (killer robots). Elle sera sous peu débattue à la Commission Défense de la Chambre. Où en est la technologie aujourd’hui? Et dans quelle mesure pouvons-nous confier aux robots nos décisions de vie et de mort?

Les robots tueurs sont des systèmes armés utilisés de manière entièrement autonome et capables de repérer et détruire par eux-mêmes des ennemis. Ces systèmes n’existent certes pas encore vraiment. Mais où en est cette technologie? “Elle n’est actuellement pas encore suffisamment évoluée que pour mettre au point des systèmes complètement autonomes”, explique Bram Vanderborght, professeur de robotique (VUB). “Les capteurs actuels ne peuvent même pas encore distinguer les citoyens normaux des soldats ennemis, à moins que ces derniers portent peut-être des uniformes oranges. Dans la convention de Genève, cette distinction est laissée à l’interprétation du soldat lui-même. Et s’il est une chose que les ordinateurs ne peuvent pas encore faire, c’est bien interpréter.”

Ce problème ne se pose pas dans ce qu’on appelle la Korean Demilitarized Zone, la zone-tampon entre la Corée du Nord et celle du Sud, où personne n’a le droit de se rendre. Pour l’instant, on y a déjà prévu le robot Hanwha Techwin SGR-A1. Ce dernier exige provisoirement encore une intervention humaine pour tirer, mais il dispose aussi d’un mode automatique. Et le drone américain X-47B est déjà capable, lui, de décoller, de naviguer et d’atterrir de manière entièrement autonome de et sur un… porte-avions. Initialement, le Pentagon avait investi des millions de dollars pour que le drone puisse également exécuter d’ici 2020 des missions de combat de manière indépendante, mais ce projet a été revu l’année dernière. Le drone autonome sera désormais utilisé pour approvisionner en carburant les avions de combat avec équipage. Il n’empêche qu’on ne peut pas non plus qualifier ces robots tueurs de pure science fiction.

“Avant même la poursuite de la mise au point de ce genre d’armes autonomes, nous devons oser nous poser la question suivante: en voulons-nous vraiment?”, déclare le parlementaire Wouter De Vriendt (Groen). Concrètement, la résolution qu’il a transmise conjointement avec Benoit Hellings (Ecolo), demande d’en prévoir une interdiction dans notre législation nationale. En outre, la Belgique doit assumer aussi un engagement actif en la matière dans la Convention sur les Armes Conventionnelles. “Dans le cadre de l’interdiction des sous-munitions ou des mines anti-personnelles, notre pays a joué un rôle international de pionnier, et il peut donc le faire de nouveau aujourd’hui”, affirme De Vriendt.

Vers une interdiction de la recherche aussi?

Ce qui est étonnant, c’est que la résolution exige une interdiction non seulement de la fabrication, du commerce et de l’utilisation des armes complètement autonomes, mais aussi de la recherche dans ce domaine. “Je trouve que cela va peut-être trop loin”, réagit le professeur Vanderborght. “Car si on tente d’interdire ce genre de recherche, les autorités le feront en secret.”

Vanderborght fait observer que les soldats n’ont pas non plus toujours le plus grand sens moral. “Les drones sont encore commandés, mais en fin de compte, cela ne se fera plus que par quelqu’un en train de fixer à distance un petit écran. Leur interprétation du champ de bataille sera donc conditionnée par des informations générées par des ordinateurs. Ils devront donc souvent prendre des décisions très rapides. Peut-être qu’alors, les décisions rationnelles prises par un robot, qui ne peut avoir des sentiments de vengeance ou d’angoisse, seront-elles plus judicieuses? Nous devons toutefois poursuivre la recherche pour le savoir.”

La résolution indique encore que les émotions peuvent éviter des bains de sang en citant comme exemple la révolution des oeillets au Portugal. “Avec des robots-soldats, le régime ne serait pas tombé sans effusion de sang”, peut-on y lire. De même, le Mur de Berlin a pu être abattu dans la paix, parce que “les troupes de sécurité est-allemandes avaient décidé de ne pas tirer sur la foule. Elles ont fait confiance à leur propre jugement résultant d’émotions typiquement humaines.”

Terrorisme

Bram Vanderborght prévient que l’utilisation d’armes entièrement autonomes risque de stimuler aussi le terrorisme. “Si les Occidentaux ne peuvent être atteints sur le champ de bataille, parce qu’ils y seraient remplacés par des robots, l’ennemi viendra d’autant plus vite ici pour commettre des attentats.”

De plus se poste la question de savoir qui serait responsable au cas où les robots feraient des erreurs. Si des gens contreviennent au droit de la guerre, ils doivent en supporter les conséquences tant morales que juridiques. “Mais si un robot tue un citoyen, qui sera le responsable: le donneur d’ordre, le programmeur ou le robot lui-même?”, se demande De Vriendt.

Bram Vanderborght est d’accord pour dire qu’il convient dans l’urgence de dresser un cadre éthique en la matière. En même temps, il signale que les objectifs doivent être réalistes: “Si nous demandons trop, les instances internationales ne l’accepteront pas.”

“Exiger directement une interdiction, c’est prématuré”, estime Tim Vandenput, membre Open VLD de la Commission Défense de la Chambre. “Je vois déjà apparaître les termes Robocops et Terminators dans la presse. Evaluons d’abord bien où en est la technologie, avant d’ouvrir un débat éthique plus en profondeur. Mais la recherche, on ne pourra pas l’interdire.”

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire