Des centres de données toujours plus verts
Il faut avoir l’honnêteté de le reconnaître: voici une dizaine ou une quinzaine d’années, le secteur des centres de données ne se sentait pas vraiment concerné par la problématique de la consommation d’énergie et du climat. Mais les choses changent…
“Notre métier est d’assurer l’accès sécurisé et ininterrompu aux données, tout en s’intéressant de près à l’environnement”, estime Karsten Winther, président EMEA, pour synthétiser la mission de son entreprise. Un message qu’il a fait passer lors d’un événement sur l’innovation auquel participait Vertiv et où Data News était présent.
Vertiv est un fournisseur américain coté en Bourse qui propose une large gamme de systèmes de refroidissement, d’équipements thermiques, d’infrastructures IT et edge, outre un ensemble de solutions et de services. Le tout pour des centres de données donc. Quelque 58% des revenus de l’entreprise proviennent d’ailleurs d’infrastructures critiques. Et un peu moins de 25% du chiffre d’affaires est généré par la zone EMEA. Avec quels clients? “Il s’agit à 70% d’exploitants de centres de données, 20% de réseaux de communication et le reste de clients commerciaux et industriels”, précise Winther. Et parmi ces clients, il cite des noms connus comme Alibaba, AT&T, Ericsson, Tencent, Reliance, Verizon et Vodafone. Et plus près de chez nous, Vertiv fournit de l’infrastructure pour des centres de données.
“Tout ce qui concerne l’edge est clairement un pôle en croissance de notre activité. Nous avons le sentiment que ce segment va exploser. Cela dit, personne ne sait vraiment quelle sera la taille de ce marché de l’edge et quand l’explosion se déclenchera vraiment. Ceci est dû en grande partie au fait que l’industrie ne maîtrise pas encore trop bien ce concept”, ajoute Winther.
Refroidissement par liquide
Au cours de l’événement, Jon Summers, ‘scientific lead in data centers’ au très célèbre institut de recherches RISE, s’est dit convaincu que le refroidissement innovant à base de liquide – et pas seulement d’eau, donc – représentait non seulement la clé ultime de la durabilité des centres de données, mais aussi la solution pour continuer à supporter l’augmentation croissante de la demande en capacité de traitement des charges de travail. “Dès avant 2015, d’aucuns évoquaient déjà l’émergence du ‘liquid cooling’, le refroidissement par liquide donc. Selon moi, c’est désormais une réalité”, a déclaré Summers.
De quoi s’agit-il exactement? En soi, ce type de refroidissement n’est pas nouveau: les premières expériences remontent en effet aux années ’60 déjà. Dans un premier temps, sur la base d’eau – le refroidissement par eau est désormais relativement courant -, mais ultérieurement avec d’autres liquides. Ainsi, le principe du plancher surélevé sous lequel sont installées des conduites d’eau est une réalité depuis 1964 déjà. Et avec l’arrivée des super-ordinateurs, l’idée est apparue de refroidir l’électronique dans du liquide.
“Il existe deux manières de faire du refroidissement par liquide. La première consiste à refroidir directement les puces, ce que l’on appelle le ‘cold plating’. La deuxième est ce que l’on nomme ‘immersion cooling’ et où les serveurs et armoires pratiquement complètes sont immergées dans un liquide qui, pour des raisons évidentes, ne peut pas être de l’eau, poursuit Summers. Voici 7 ans, nous avions déjà entamé dans nos labos de tels tests avec d’anciens serveurs Windows que nous avions plongés dans un bain d’huile. Certes, il s’agissait là d’une méthode ‘vite fait, bien fait’, mais cette technique continue d’être utilisée aujourd’hui car elle permet de pomper l’ensemble de la chaleur, et pas seulement d’un composant spécifique, comme le processeur. Par ailleurs, on constate maintenant que les fournisseurs de cloud combinent ces deux approches.”
La chaleur n’est pas générée par l’IT seule
La plupart de la chaleur générée par un centre de données provient de l’équipement IT proprement dit: 70% selon le centre d’expertise de Berkeley Lab. Mais aussi des refroidisseurs (9%), des systèmes de contrôle de l’humidité (9%) et des pompes à eau (3%) notamment. Ces appareils doivent donc aussi être cartographiés. Mais la situation se complexifie encore lorsque l’opérateur du centre de données envisage de réutiliser la chaleur produite, un concept qui gagne en intérêt. Ainsi, des pompes à chaleur peuvent permettre d’acheminer la chaleur émise par le centre de données via des canalisations pour chauffer ensuite des centres d’entreprises ou des habitations, un réseau de chaleur donc. Ou comment un centre de données peut se muer en exploitant d’un réseau de chaleur pour un quartier. “Il s’agit là certainement d’une bonne idée, même si de telles pompes à chaleur nécessitent également de l’énergie pour fonctionner”, insiste Summers. Certes, il faut prendre en compte les déperditions de chaleur liées à la distance d’acheminement de la chaleur. De même, il ne faut pas oublier que la plupart des centres de données sont situés dans des endroits reculés ou dans des zones industrielles, ce qui ne facilite pas la rentabilisation d’un tel réseau de chaleur. “Reste qu’il faudrait essayer de ne plus voir les centres de données comme de simples énergivores, mais comme un lieu d’échange d’énergie. Il s’agit là d’un exercice qu’il conviendra d’effectuer ensemble, dixit encore Summers. Pour l’instant, 95% de tous les centres de données rejettent surtout la chaleur dans l’environnement. Peut-être faudra-t-il à l’avenir envisager de construire les centres de données à proximité d’usines qui ont besoin de chaleur?”
Par ailleurs, il ne faudrait pas ignorer la problématique de l’utilisation de l’eau lorsqu’il est question de refroidissement par eau ou par liquide. “Il s’agit en tout cas de circuits fermés qui ne rejettent donc pas des litres d’eaux usées”, réagit Summers qui évoque la notion de ‘industrial symbiosis’. “Le principe est de s’aligner entre industries et secteurs pour résoudre ensemble des problèmes et générer des avantages. En fait, il n’est pas question de défi technique, mais de collaborer simplement de manière plus intensive, notamment au niveau des centres de données et des défis climatiques”, conclut Jon Summers.
Refroidissement par liquide pour centre de données à haute densité
Vertiv vient de dévoiler une solution de ‘liquid cooling’ pour l’informatique à hautes performances, la série Liebert XDU. Cette solution est disponible en plusieurs variantes et mise clairement sur la récupération de la chaleur excédentaire et le support de l’économie circulaire. Il s’agit d’un système de gestion thermique pour centres de données hébergeant des serveurs à refroidissement par liquide et permettant de gérer la qualité du liquide, la pression (hydraulique), etc. Ce produit est destiné tant au ‘core’ des centres de données qu’à l”edge computing’. ” Avec cette gamme, les opérateurs de centres de données peuvent améliorer l’efficacité opérationnelle tout en opérant de manière durable “, résume Roberto Felisi de Vertiv.
Les centres de données en 5 tendances
1 Régulation accrue
Alors que l’année vient à peine de commencer, les centres de données peuvent s’attendre à de nouvelles réglementations, estime Vertiv. En dépit des efforts déployés par l’industrie, la part totale de l’énergie consommée dans le monde reste extrêmement élevée, ce qui incite les pouvoirs publics et régulateurs à prendre des mesures supplémentaires. Sur une période de 10 à 20 ans, la régulation a été plus que multipliée par dix et Vertiv considère que cela ne fera qu’augmenter dans le futur.
2 La standardisation, une nécessité pour les hyperscalers
Les grands hyperscalers de ce monde abandonnent toujours plus – selon une enquête du cabinet Omdia – les infrastructures internes ‘custom-build’ pour des approches modulaires sur la base de briques préfabriquées. Poussés par la nécessité d’accélérer les déploiements et sans doute aussi de réduire leurs coûts, ils mettent la standardisation à la mode, non seulement pour les grandes entreprises, mais aussi pour les fournisseurs (de cloud) hyper-scales et pour la partie ‘edge’ du réseau.
3 De la concurrence pour les générateurs diesel
Depuis très longtemps, le générateur diesel est le point faible difficilement évitable dans un centre de données. En cause, l’impact sur l’environnement, mais aussi la nécessité de stocker du carburant qui n’est souvent que très peu utilisé, sauf lorsque le centre de données doit fonctionner en mode de maintenance ou en cas de tests. Or selon Vertiv, le moment est venu de remettre en question ce vieux générateur diesel à mesure que des alternatives voient le jour, comme les piles à l’hydrogène.
4 La densité plus élevée entraîne de nouvelles stratégies thermiques
Selon l’Uptime Institute, plus d’un tiers des opérateurs de centres de données ont vu leur ‘densité de baies’ (entendez le nombre de kW consommés par une baie) augmenter rapidement ces 3 dernières années. Et ce, surtout dans les grandes entreprises et les centres de données hyperscale. Cette hausse de la consommation énergétique s’accompagne d’un besoin croissant de capacité supplémentaire. D’où l’émergence de possibilités pour de nouvelles technologies de refroidissement, comme donc le refroidissement par liquide.
5 La 5G et le métavers se retrouvent dans l’edge
Le consultant indépendant Omdia prévoit qu’à l’horizon 2027, près de la moitié des abonnements mobiles dans le monde – soit plus de 5,8 milliards – offrira la 5G. La partie informatique se rapprochera alors de l’utilisateur. Dans le même temps, le métavers en devenir exigera également un réseau informatique ultra-dense avec une faible latence. Dès lors, les applications du métavers nécessiteront la 5G. Du coup, l’informatique à la périphérie du réseau deviendra plus complexe et plus difficile à contrôler.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici