Votre centre de données est-il cool?

Le centre de données belge de Google à Saint-Ghislain est le premier au monde à utiliser uniquement le refroidissement par air.

Le refroidissement d’équipements ICT reste un sujet ‘chaud’. Non seulement au niveau du centre de données proprement dit, où les serveurs risquent la surchauffe, mais aussi du comité de direction.

Comme chacun le sait, tout équipement électrique dégage de la chaleur. Faites tourner une série d’ordinateurs dans une salle fermée – comme un centre de données – et vous constaterez une hausse immédiate de la température. Et si la chaleur devient trop forte, les ordinateurs fonctionnent moins bien ou s’arrêtent tout simplement. Bref, les centres de données ne peuvent pas se passer de refroidissement. Or les systèmes classiques de refroidissement et de ventilation fonctionnent à l’électricité. Ils permettent de limiter la température du centre de données, mais se révèlent gourmands en énergie. C’est ainsi que le refroidissement et la ventilation représenteraient 40% de la facture énergétique d’un datacenter, soit environ l’équivalent de la consommation électrique des équipements dont il faut maîtriser la température.

Investir pour économiser

La consommation électrique des centres de données – y compris pour le refroidissement – constitue un domaine d’étude intéressant. Il révèle en effet un aspect contre-intuitif, à savoir de nécessiter un investissement pour générer des économies. La poursuite de la numérisation constitue un levier important de la réduction des émissions de CO2. Or pour intensifier cette numérisation, il faut toujours plus de centres de données.

Mieux encore, le numérique devrait permettre de réduire les émissions de CO2 sans pour autant augmenter la consommation électrique. Le secteur des centres de données se trouve donc confronté à un défi majeur dans le cadre de la durabilité: répondre à la demande de capacité supplémentaire afin que des solutions numériques permettent de diminuer les émissions à l’échelle mondiale, le tout en opérant de manière durable.

Un degré supplémentaire

La hausse fulgurante des prix de l’énergie représente un défi supplémentaire. Pour preuve, les citoyens qui utilisent des convecteurs électriques pour chauffer leur maison se sont vu conseiller ces derniers temps de réduire leur thermostat pour réaliser ainsi des économies. Mais dans le centre de données, la logique contraire pourrait-elle être appliquée: augmenter la température d’un degré pour ainsi réduire la facture du refroidissement? Sans doute, même s’il faut évidemment voir quelle température règne actuellement dans le centre de données.

Voici dix ans déjà, d’aucuns évoquaient les températures élevées dans le centre de données belge de Google. Il s’agissait en effet du premier centre de données au monde utilisant uniquement le refroidissement par air, le conditionnement d’air ne servant que dans les bureaux. Mais désormais, Google refroidit également ses serveurs de Saint-Ghislain grâce à l’évaporation de l’eau tirée du canal situé à proximité. Durant la même période – autour de 2012 donc – , des géants comme Microsoft, Intel et Dell annonçaient qu’une température plus élevée dans un centre de données n’était pas forcément un problème pour les performances des équipements. D’ailleurs, Dell donnait la garantie que ses serveurs pouvaient fonctionner parfaitement jusqu’à 45° C.

Air frais

Or même dans ces conditions, la gestion de l’efficacité énergétique du refroidissement représente une gageure. C’est ainsi que Proximus a installé dès 2013 deux roues de Kyoto dans son tout nouveau centre de données de l’époque. Il s’agit de constructions en aluminium de quelque 6 m de diamètre qui acheminent l’air frais à l’intérieur du bâtiment. Ce n’est que lorsque la température extérieure atteint 18° C que des refroidisseurs se mettent en route pour réduire la température. Du coup, la consommation électrique est réduite de 60% par rapport à un refroidissement classique.

Le recours à l’air frais extérieur pour le refroidissement d’un centre de données représente l’un des arguments majeurs présenté par le secteur en Islande. On a d’ailleurs constaté – même sans le besoin de refroidissement supplémentaire – à une explosion de la demande d’électricité. Par extension, le Nord de l’Europe en général représente une zone intéressante pour les centres de données. C’est ainsi que Facebook a ouvert un centre de données avec refroidissement par air en Suède, tandis que Google et Apple ont aussi décidé d’installer de nouveaux centres de données en Scandinavie. L’agence danoise pour l’énergie s’attend à ce que la construction de nouveaux centres de données fasse augmenter la consommation professionnelle d’électricité de pas moins de 85% en 2030 par rapport à 2017.

Sur le fond de la mer

D’autres projets visant à optimiser le fonctionnement des centres de données se révèlent eux bien plus spectaculaires. En 2018 par exemple, Microsoft a lancé son projet Natick destiné à installer un gros tube métallique étanche renfermant 864 serveurs sur le fond de la mer, à quelque 40 m de profondeur dans les îles Orkney au large de l’Ecosse. L’idée est de créer un environnement hermétique susceptible d’avoir un impact positif sur les performances des équipements. Dans un centre de données classique en effet, on assiste à une corrosion inévitable du matériel suite à l’humidité et à l’oxygène de l’air.

L’idée d’un centre de données sous-marin n’est pas neuve. Microsoft l’avait déjà lancée en 2014, forte du constat que plus de la moitié de la population mondiale vit à moins de 200 km d’une côte. Des centres de données sous-marins déployés sur la côte de grandes agglomérations garantirait un trafic de données nettement plus rapide. Avantage supplémentaire: comme les centres de données se trouvent dans de l’eau de mer froide, le refroidissement peut se faire de manière nettement moins énergivore. En l’occurrence, le principe utilisé est celui d’une tubulure qui fait office d’échangeur de chaleur, à l’instar de ce qui se passe dans un sous-marin.

Dans le noir

Un peu plus de deux ans plus tard, Microsoft ressortait son tube de l’eau en Ecosse. Le nombre de serveurs et de câbles qui étaient tombés en panne durant les deux années d’expérimentation était 8 fois inférieur à la moyenne. Des études complémentaires doivent permettre de trouver une explication, mais tout indique que l’azote utilisé dans le tube serait bénéfique. En effet, ce gaz aurait nettement moins d’impact sur les machines que l’air d’un centre de données sur terre. De même, la présence de personnes dans un centre de données traditionnel serait souvent à l’origine d’erreurs.

Cette expérience de centre de données sous-marin doit également apporter un nouvel éclairage sur la durabilité. L’expérience a en effet démontré qu’un centre de données ‘lights out’ (dans le noir donc) sur le sol marin (où personne n’entre et rien ne bouge durant des années) offre une durabilité supérieure. Les réparations et les pièces de rechange sont moins nombreuses, et il n’y a pas besoin d’eau douce pour le refroidissement, celle-ci restant disponible pour l’homme et la nature.

Refroidissement par immersion

Le refroidissement par immersion est une idée promue par la start-up espagnole Submer. Les serveurs ne sont certes pas enfouis sur le niveau de la mer, mais dans des armoires que l’entreprise remplit d’un liquide non conducteur et biodégradable. Submer affirme obtenir ainsi des économies d’énergie considérables. C’est ainsi que par rapport à des refroidisseurs classiques, le système consommerait la moitié moins d’électricité et 99% d’eau en moins. L’opérateur télécoms espagnol Telefonica utilise d’ores et déjà cette technologie, tandis qu’un contrat de développement de produits a été conclu avec Intel. Et le projet de Submer peut s’enorgueillir d’un petit accent belge puisque l’entreprise a bénéficié d’une injection de capital de 30 millions ? provenant des familles belges d’actionnaires d’AB Inbev, a appris le Tijd.

Submer capitalise en l’occurrence sur une technologie existante puisque le refroidissement par immersion est notamment utilisé dans l’industrie automobile. De même, le secteur IT s’y intéresse depuis un certain temps déjà. C’est ainsi qu’en 2016, des tests ont été menés par Dell EMC sur le refroidissement par immersion de serveurs dans le cadre du produit Novec de 3M. Novec est un fluide basé sur l’hydrofluoroéther qui n’est pas conducteur d’électricité. Et l’an dernier, Microsoft a lancé un système similaire de refroidissement par immersion, lequel utilise également une substance non conductrice – basée sur le fluorocarbone – dans laquelle les serveurs peuvent être immergés. La chaleur des machines porte la substance à ébullition dès 50° C. La vapeur ainsi dégagée se condense et est extraite, ce qui crée un système fermé. Désormais, Microsoft a déployé ce refroidissement par immersion dans l’un de ses centres de données hyperscale.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire