Des chercheurs mettent en garde contre une intelligence artificielle hors de contrôle

© Bistrosavage
Sebastien Marien Stagiair Data News 

Dans un nouveau rapport, 26 chercheurs de 14 organisations différentes évoquent les dangers des algorithmes AI qui tomberaient dans des mains indélicates. Ils prodiguent aussi une série de recommandations destinées à limiter les risques de dérapage.

Une première menace soulevée par les chercheurs concerne le phénomène des ‘deepfakes‘. Il s’agit là d’une méthode d’apprentissage machine avec laquelle les visages d’actrices d’Hollywood peuvent être placés sans problème sur des corps de stars du porno. L’application a vu le jour au moyen d’une solution open source provenant de développeurs AI de Google.

‘Fake Trump’

Selon le rapport, des criminels pourraient appliquer cette méthode à des fins encore nettement plus préoccupantes, comme par exemple des vidéos factices sur des personnalités mondiales de premier plan. Si demain, une vidéo se manifestait, dans laquelle le président Trump déclare la guerre à la Corée du Nord, les conséquences pourraient être immenses.

Mais l’inverse serait possible aussi dans la mesure où des autorités pourraient exploiter l’AI pour exercer une forme inédite de contrôle, de répression et de propagande sur leur population. Dès que des algorithmes intelligents peuvent être appliqués à des données étoffées de personnes, les possibilités sont infinies.

Killerbots et IoT

La cybercriminalité est également une énorme menace potentielle en combinaison avec l’AI. Un logiciel intelligent pourrait en effet causer d’énormes dommages à une assez grande échelle au moyen d’attaques de piratage organisées. Au Forum Economique Mondial (WEF) du début de cette année, on a partagé cette même vision des choses.

En outre, les chercheurs envisagent surtout des dangers au niveau des appareils de l’internet des objets (Internet of Things ou IoT). Ils insistent sur le fait que les maisons connectées bourrées d’appareils connectés à internet forment une importante cible d’attaques. Si des cybercriminels peuvent accéder à des frigos ou des caméras intelligents, ils pourraient en tirer un tas d’informations qu’ils exploiteraient ensuite à des fins d’abus. Le rapport cite ainsi spécifiquement les voitures automobiles.

En outre, les chercheurs mettent aussi en garde contre les armes dotées de l’intelligence artificielle et contre les invasions de drones. L’année dernière, plusieurs CEO et experts de firmes robotiques avaient eux aussi déjà exprimé leur préoccupation à propos de ce qu’ils appellent les ‘robots tueurs intelligents‘. Dans notre pays, une centaine d’experts en robotique et en AI belges ont même appelé le gouvernement à prévoir une interdiction nationale de ces armes entièrement autonomes.

‘Des licences uniquement pour les développeurs d’AI fiables’

Enfin, les chercheurs prodiguent une série de recommandations destinées à nous permettre d’en apprendre plus sur l’AI. Ils proposent aussi de faire contrôler l’utilisation de la technologie AI par un organe indépendant, afin que toutes les informations soient centralisées. Par ailleurs, les licences ne doivent être attribuées qu’aux développeurs fiables dans ce domaine.

De plus, le rapport de pas moins de 100 pages prévoit la mise en oeuvre de différents niveaux de pouvoir à propos du logiciel AI. Chaque instance ne devrait pas avoir accès de la même manière aux informations et à la matière allant de pair avec l’AI.

Les chercheurs s’attendent d’ici cinq ans à une forte augmentation des risques, si la technologie continue d’évoluer ainsi. Selon eux, il appartient à présent au monde politique à nous préparer et à mettre en place les balises requises. “Des mesures sont indispensables au niveau tant international, national que local”, concluent-ils.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire