HPC est cool et hétéro

19/06/12 à 16:26 - Mise à jour à 16:26

Source: Datanews

L'ISC'12 à Hambourg consacré au 'High Performance Computing' a abordé le refroidissement par liquide, un mix hétérogène de processeurs et toujours plus le HPC 'en tant que service'.

HPC est cool et hétéro

L'ISC'12 à Hambourg consacré au 'High Performance Computing' a abordé le refroidissement par liquide, un mix hétérogène de processeurs et toujours plus le HPC 'en tant que service'.

Le 'High Performance Computing' (HPC, alias le 'supercomputing') représente sans cesse davantage une question de nécessité concurrentielle, déclarait-on en long et en large lors d'ISC'12. Grâce à des concepts et simulations détaillés dans des environnements HPC, les entreprises peuvent concevoir plus rapidement de meilleurs produits et services, et ce à moindres frais et avec des possibilités collaboratives plus fluides. HPC permet en effet davantage d'itérations de concept, souvent sans devoir construire de (coûteux) prototypes, afin qu'un produit puisse plus rapidement être lancé sur le marché (ou dans une meilleure version).

Refroidissement 'cool' Revers de la médaille: cela exige aussi toujours plus de puissance de calcul allant de pair avec une plus grande consommation d'énergie et un plus fort dégagement de chaleur. Surtout si les systèmes en arrivent aujourd'hui bien vite à un million et demi de coeurs de traitement (le nouveau #1 du Top500, le BlueGene/Q). Lors d'ISC'12, le refroidissement par liquide des systèmes HPC était dès lors 'cool' avec une large palette de nouveaux produits. IBM a ainsi présenté un exemplaire de l'ordinateur BlueGene/Q, mais aussi le module iDataPlex (présent dans le SuperMUC européen) tous deux refroidis par eau. Ce qui est étonnant ici, c'est que le système de refroidissement Aquasar d'IBM utilise de l'eau à une température comprise entre 50 à 60 °C déjà. L'eau du SuperMUC est en outre encore utilisée pour chauffer le bâtiment, ce qui nous ramène donc à l'époque des mainframes refroidis par eau. Bull a elle aussi présenté une unité refroidie par eau de sa propre conception, le bullx DLC blade de la série B700 (Direct Liquid Coolin). D'autres liquides que l'eau sont aussi utilisés, comme le liquide Novec de 3M, voire une espèce d'huile pour... bébés. Tous les producteurs insistent sur l'avantage des liquides pour éliminer plus efficacement de (plus grandes) quantités de chaleur.

Par ailleurs, c'est l'ensemble des composants d'un système HPC qui font l'objet d'une attention toute particulière en matière de consommation de courant. C'est ainsi que Samsung a présenté lors d'ISC'12 sa 'green memory' basée sur la DDR3 DRam à 20 nm et SSD).

Architecture hétérogène Plusieurs fabricants technologiques ont aussi expliqué que l'avenir de HPC appartient aux systèmes à architecture hétérogène. Dans le cas précis, différents types de processeurs sont réunis dans un même système, et les diverses tâches d'une application sont attribuées au processus le plus approprié. En particulier, l'on dispose d'un mix de CPU 'normaux' et de CPU 'massivement parallèles' (comme le Xeon Phi), à côté du GPU (processeur graphique) utilisé tant pour les applications de calcul (General Purpose GPU) que pour la visualisation. Lors d'ISC'12, des entreprises telles AMD (CPU et GPU sur une seule et même puce), Fujitsu (Visimpact), IBM, Intel et d'autres sont venues présenter leurs projets en la matière. A terme, il devrait être possible d'adapter dynamiquement, alors qu'une application est en train de tourner, le mix des processeurs (y compris la désactivation des processeurs et/ou coeurs inutilisés).

L'important ici semble être la concurrence entre les CPU (tels ceux d'Intel) et les GPU (tels ceux de Nvidia). Cela recouvre aussi souvent d'autres modèles de programmation, chacun lançant des défis spécifiques aux développeurs. C'est ainsi que les systèmes CPU semblent davantage pencher pour une approche 'message-passing', alors que les GPU sont davantage orientés 'data streaming'. Tandis qu'Intel affirme que son Xeon Phi offre de belles possibilités en matière de conversion de software (il est vrai avec une intense vectorisation), Nvidia a de son côté conçu un environnement propre (CUDA). Du reste, l'on estime qu'aucun de ces systèmes ne l'emportera, mais que c'est un modèle hybride qui s'imposera.

En tant que service L'importance de HPC ressort aussi de l'offre croissante de 'HPC as a service', comme l'on s'en est rendu compte lors d'ISC'12, où des entreprises telles T-Systems, Amazon et consorts ont présenté ce genre de services, et ce tant pour les grands sociétés qui nécessitent davantage de puissance que pour les plus petites entreprises qui ne peuvent se payer leur propre infrastructure HPC (ou qui n'en ont pas besoin à temps plein). Des universités et instituts de recherche se proposent pour davantage d'accords de collaboration, et les fabricants de systèmes investissent également dans les services. C'est ainsi que le mois dernier, Bull a annoncé avoir créé une co-entreprise ('joint venture') avec la Caisse des Dépôts, pour un montant de 28 millions d'euros, avec HPC en tant que service de 'cloud computing'. L'entreprise fournira des services tant IaaS que PaaS aux entreprises dans toute l'Europe.

En savoir plus sur:

Nos partenaires