Des chercheurs en AI promettent de ne pas créer de robots tueurs
Plus de 2.400 personnes, qui travaillent dans le domaine de l’intelligence artificielle (AI), ont signé un accord, dans lequel elles promettent solennellement qu’elles ne développeront pas d’armes autonomes, capables d’attaquer des humains.
La peur de ‘Terminators’ existe depuis le début de la robotique et du développement de l’intelligence artificielle. Cela n’a pas échappé non plus aux chercheurs qui travaillent sur ces technologies. Voilà qui explique l’existence à présent du Lethal Autonomous Weapons Pledge, destiné à convaincre les firmes militaires et les pays de ne pas fabriquer de robots tueurs, comme on les appelle, commandés par l’AI. Demis Hassabis de Google DeepMind et Elon Musk de SpaceX notamment ont signé cet accord, en plus de toute une série de scientifiques, hommes d’affaires et étudiants.
“Nous, les signataires, nous croyons que la décision de mettre fin à la vie humaine ne doit pas être confiée à une machine”, peut-on y lire. Elon Musk, surtout, est connu comme un grand opposant aux armes autonomes. Lors de présentations et de discours, il a à plusieurs reprises déjà lancé des mises en garde contre une troisième Guerre Mondiale, au cas où l’AI deviendrait trop puissante.
La question morale de savoir si l’intelligence artificielle pourrait être utilisée, lorsque des vies humaines sont en jeu, taraude ces derniers mois de plus en plus l’esprit des chercheurs en la matière. Surtout à présent que l’AI s’améliore toujours davantage et est utilisée dans plus de secteurs. En avril, des chercheurs avaient par exemple demandé un boycott du Korea Advanced Institute of Science and Technology, parce qu’il collaborait avec une entreprise militaire à propos de l’usage de l’intelligence artificielle pour des armes militaires. Les armes autonomes avaient à l’époque été qualifiées dans le courrier de ‘boîte de Pandore’.
Plus tôt cette semaine, Microsoft a aussi lancé un appel en vue de juguler l’AI sur le plan de la reconnaissance faciale, pour éviter des scénarios à la Big Brother. Google et Amazon ont toutes deux été dans la ligne de mire (en partie par leurs propres collaborateurs) pour des collaborations avec l’armée et des services de police américains, ici encore dans le domaine de l’AI.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici