Google enseigne le multitâche à l’AI en la faisant jouer simultanément à plusieurs jeux
Une nouvelle méthode testée par l’équipe DeepMind de Google permet à l’intelligence artificielle d’apprendre le multitâche. De cette manière, les réseaux neuraux pourront apprendre de nouvelles choses plus rapidement.
L’équipe DeepMind, connue pour les algorithmes AlphaGo qui ont battu le meilleur joueur de Go au monde, a développé une manière d’enseigner plus rapidement de nouvelles choses à son intelligence artificielle. Cette nouvelle méthode a été baptisée Importance Weighted Actor-Learner Architectures (IMPALA).
Les chercheurs exposent l’AI à toute une série de jeux vidéos en même temps. IMPALA veille à ce que les réseaux neuraux soient subdivisés en ‘joueurs’ et ‘élèves’. Avec l’ancienne méthode, l’ordinateur donnait les inputs au contrôleur, comme le ferait un joueur humain. Avec la nouvelle méthode, l’AI parcourt à présent 30 jeux en même temps: toute l’info des ‘joueurs’ est associée dans les réseaux des ‘élèves’. Selon les chercheurs, l’AI avec IMPALA exécute son travail de manière 10 fois plus efficiente en comparaison avec la méthode précédente.
Préparation au véritable labeur
En outre, le multitâche veille à ce que les réseaux neuraux puissent collecter plus vite de nouvelles informations. Le principal défi à relever par l’AI est actuellement d’améliorer la vitesse à laquelle les réseaux neuraux peuvent apprendre de nouvelles choses. Si l’AI doit un jour être capable de guider par exemple une voiture autonome à travers toutes sortes de situations pénibles dans le trafic, il est important que le software soit prêt à tout. Les simulations, telles qu’on les trouve dans les jeux vidéo, constituent l’une des méthodes qui doivent préparer l’intelligence artificielle au véritable labeur.
Selon les chercheurs de DeepMind, IMPALA traite 250.000 frames par seconde, soit 21 milliards de frames par jour. Ce faisant, Google dispose avec les systèmes de son équipe DeepMind du traitement de données le plus rapide par l’AI.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici