
Google introduit l’AI Hypercomputer pour une ‘puissance de calcul IA illimitée’

Le géant de l’internet Google a dévoilé l’AI Hypercomputer lors de son événement Next’25. Il s’agit là d’un superordinateur sophistiqué, spécialement conçu pour simplifier les implémentations d’IA, améliorer les performances et optimiser les coûts.
La puissance de calcul de l’AI Hypercomputer est fournie, entre autres, par des TPU Ironwood. Le TPU (Tensor Processing Unit) de septième génération de Google est le plus grand et le plus puissant à ce jour et, selon le géant de l’internet, il est dix fois supérieur au précédent TPU hautes performances.
42,5 ExaFLOPS
Avec plus de 9.000 puces par pod, Ironwood fournit 42,5 ExaFLOPS de puissance de calcul par pod. Selon Google, cela rend le système 24 fois plus puissant que le superordinateur le plus rapide actuellement disponible – du moins en ce qui concerne la puissance de calcul de l’IA (*). Selon. Selon le géant technologique, cela devrait être largement suffisant pour répondre aux demandes exponentiellement croissantes des modèles de réflexion les plus avancés, tels que Gemini 2.5.
La configuration se caractérise par de nombreuses options GPU. Pensez ici à du matériel d’IA tel que des machines virtuelles A4 et A4X pilotées par les GPU Nvidia B200 et GB200. A l’entendre, Google serait également le premier fournisseur cloud à proposer les GPU Vera Rubin de nouvelle génération de Nvidia (du nom d’une astronome américaine, soit dit en passant).
Google Distributed Cloud
Une autre annonce concernait Google Distributed Cloud (GDC), qui migrera les modèles de Google vers des environnements locaux (sur site). ‘Nous collaborons avec Nvidia pour rendre Gemini disponible sur ses systèmes Blackwell, avec Dell comme partenaire-clé. Cela permettra à Gemini d’être déployé localement dans des environnements tant fermés (‘air-gapped’) que connectés’, apprend-on.
(*) La vitesse des superordinateurs Top500 et des systèmes de super-calcul IA est déterminée de manière différente, ce qui rend la comparaison directe difficile. La première catégorie concerne les calculs en virgule flottante 64 bits (FP64) via les benchmarks Linpack. Dans le super-calcul IA, comme les TPU Ironwood de Google, on parle de calculs FP8 (ou parfois même FP4). Ces systèmes sont moins exigeants pour l’infrastructure IT (qui est destinée à former efficacement l’IA) et ne conviennent pas aux tâches informatiques dans lesquelles les systèmes Top500 excellent, comme les prévisions météorologiques ou les simulations et la recherche scientifique.
(Merci au lecteur Wesley Wienen pour cette clarification.)
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici