Mi-juillet, les centres de données d'Oracle et de Google installés en Grande-Bretagne étaient à l'arrêt. En cause, une 'panne liée au refroidissement qui s'est traduite par la paralysie de machines virtuelles et de différents équipements physiques. De même, deux centres de données des services de la santé NHS ont connu des problèmes. Le fait que des pannes se produisent à différents endroits n'a rien d'un hasard: la Grande-Bretagne faisait face à l'époque à des températures supérieures à 40°C.
...

Mi-juillet, les centres de données d'Oracle et de Google installés en Grande-Bretagne étaient à l'arrêt. En cause, une 'panne liée au refroidissement qui s'est traduite par la paralysie de machines virtuelles et de différents équipements physiques. De même, deux centres de données des services de la santé NHS ont connu des problèmes. Le fait que des pannes se produisent à différents endroits n'a rien d'un hasard: la Grande-Bretagne faisait face à l'époque à des températures supérieures à 40°C. Les centres de données font largement appel à l'air extérieur pour leur refroidissement, les températures extrêmes ayant donc un impact direct sur leur fonctionnement. Même si chaque centre de données est différent. "Des acteurs comme Google ou Oracle s'appuient davantage sur des logiciels et peuvent déplacer des charges de travail assez facilement entre leurs centres, ce qui leur permet de débrancher des machines en cas de problème", explique Laurens van Reijen, directeur général de LCL. Son entreprise construit et gère des centres de données où des clients peuvent louer de l'espace. "Nous sommes sur un marché où il faut être toujours prêt à accepter de futurs clients. Dès lors, nous ne remplissons jamais nos surfaces jusqu'à l'extrême, sachant qu'un nouveau client peut se présenter et nous demander de le connecter." Cela dit, indépendamment du type de centre de données, des températures particulièrement élevées posent problème. "Il est indispensable de compenser cette chaleur supplémentaire par une installation de refroidissement et des ventilateurs qui doivent fonctionner à plein régime." Il n'empêche que l'air extérieur chaud n'est pas le seul défi. "Au printemps, il peut arriver que le pollen entrave le fonctionnement des refroidisseurs, ce qui risque également de pénaliser le conditionnement d'air." Il est dès lors d'autant plus important de bien se préparer à la période estivale. "Avant l'été, il convient de procéder à un entretien en profondeur des installations, ce qui permet de mieux résister aux conditions extrêmes." Van Reijen estime qu'à l'avenir, les centres de données opérant dans nos régions devront être conçus en prenant en compte ces vagues de chaleur. "S'il n'y a qu'une seule journée de chaleur extrême, les installations peuvent refroidir rapidement par la suite, mais en cas de chaleur de longue durée, le centre de données doit être adapté pour répondre à de telles conditions. Ainsi, un bâtiment avec un toit plat en plein soleil, comme c'est le cas de la plupart des centres de données, n'est pas une configuration optimale. Dans le même temps, on ne construit pas un centre de données pour quelques années seulement. Celui qui a construit son installation voici 20 ans sur la base des températures de l'époque se devra de procéder à différentes adaptations ." En parallèle, la technologie du centre de données évolue également. Van Reijen se montre optimiste, tout en restant prudent. "On développe actuellement le refroidissement par immersion où un serveur est plongé dans un bain [non-conducteur, NDLR] de liquide de refroidissement pour être ensuite refroidi à des températures nettement plus élevées. Mais la machine doit être conçue pour le permettre. Certains acteurs affirment que la technologie est au point, mais que la garantie n'est plus applicable. Cela pourrait ouvrir un marché intéressant si les fabricants pouvaient commercialiser de tels serveurs." Récemment, Microsoft a fait état d'un test au cours duquel elle a remplacé les générateurs diesel d'un centre de données, lesquels prennent le relais en cas de panne d'alimentation électrique, par des piles à combustible à l'hydrogène. De tels générateurs diesel ne doivent que rarement entrer en action, mais doivent idéalement être testés régulièrement pour s'assurer qu'ils peuvent intervenir en cas de panne. "Il s'agit là également d'une voie possible à l'avenir, même s'il faudra se montrer patient. L'hydrogène que l'on peut produire aujourd'hui est surtout de l'hydrogène 'gris' qui est en fait aussi néfaste qu'un générateur au diesel. Cela vaut surtout au niveau de l'approvisionnement. Si l'on parvient à le rendre plus durable, on pourra en faire une véritable alternative." Pour sa part, LCL analyse actuellement le HVO100, mieux connu sous le nom de biodiesel. "Il s'agit d'un carburant plus écologique, disponible à grande échelle en Belgique, notamment via Total et Maes, et dont les émissions sont 90% plus propres que celles d'un diesel classique." L'objectif est de conserver les générateurs au diesel actuels, éventuellement avec de légères adaptations en fonction du biodiesel. "Allonger la durée de vie de tels appareils est aussi une question de durabilité. Car en changeant rapidement d'équipements, on engendre simplement de nouveaux déchets. Il en va de même pour les serveurs ou le stockage: utiliser le matériel durant une année supplémentaire a un impact majeur sur les émissions de CO2. C'est également le cas pour les téléviseurs et les téléphones, ne serait-ce qu'au niveau des matières premières nécessaires." Cela étant, plusieurs évolutions voient le jour depuis une dizaine d'années. "Lorsque nous avons construit nos premiers centres de données, il fallait mettre une grosse veste pour y pénétrer en raison du froid. Aujourd'hui, on pourrait plutôt se promener en maillot de bain dans la mesure où les températures qui règnent sont plus élevées", note encore Van Reijen. Si la chaleur intérieure est désormais supérieure, c'est en raison de la meilleure résistance du matériel et donc de la nécessité de moins le refroidir. Mais ce n'est pas la panacée. "Chez nous, nous appliquons actuellement une température de 24 à 25 °C dans le couloir froid et 30 °C dans le couloir chaud. On pourrait encore travailler avec des températures plus élevées, mais certains équipements plus anciens de clients ne sont pas prévus pour de telles conditions. Chez un pur acteur du cloud, la situation est différente dans la mesure où le matériel est renouvelé plus rapidement." Il n'empêche que certains grands acteurs du monde des centres de données en Grande-Bretagne ont connu des pannes, une situation que Van Reijen tient à nuancer. "Cela reste des cas extrêmes et des acteurs comme Google et Oracle ont tellement de centres de données que le risque d'incident chez eux est évidemment plus grand. Mais on en retire également les leçons. Pour notre part, nous avons connu un pic de chaleur voici 15 à 16 ans, ce qui nous a permis de constater que nos installations n'étaient pas optimales. Ce fut l'occasion d'un bilan complet qui nous permet de profiter aujourd'hui encore des connaissances acquises alors."