Les vagues de chaleur. Quelles implications pour les centres de données?

Pratique
Par · 23/08/2022

Dans un billet de blog récent, Laurens van Reijen, directeur général de LCL Data Centers (l’un des infocentres du groupe est situé aux Isnes, près de Gembloux), se livrait à quelques réflexions sur l’impact des fortes températures sur les centres de données. “Quel impact cela a-t-il sur un secteur qui produit déjà beaucoup de chaleur et qui a donc, de toute façon, besoin de beaucoup de refroidissement?”

“Le secteur des centres de données doit plus que jamais se préparer aux vagues de chaleur. En effet, nous allons en connaître de plus en plus souvent. Pendant des années, nous avons imaginé des solutions pour éviter les problèmes dans nos systèmes de refroidissement, mais il est maintenant temps de prendre des mesures concrètes.”

La prise de conscience n’est pas nouvelle. Il y a de cela déjà une quinzaine d’années, explique le patron de LCL, à l’occasion d’un été particulièrement chaud, la société avait “constaté que nous avions besoin d’une installation plus robuste. Si nous voulions nous améliorer en tant qu’organisation, il était important de faire les bons investissements dans les systèmes de refroidissement. C’est encore le cas aujourd’hui.”

Voyons cela plus en détail.

L’impact sur les systèmes de refroidissement

“Sur un toit, il y a peu d’ombre”, écrit Laurens van Reijen dans son blog. “Et les températures augmentent considérablement. Cela rend les choses encore plus difficiles. Il est donc important d’avoir un système de refroidissement qui puisse mieux résister à une vague de chaleur.” Des évolutions et adaptations semblent donc nécessaires tout en sachant (et les deux choses s’additionnent évidemment) que “d’un point de vue énergétique, nous [les propriétaires et exploitants de centres de données] devons réduire les coûts. Le refroidissement est à ce titre un poste de frais qui peut compter.”

L’un des curseurs sur lesquels – depuis déjà de très nombreuses années, les centres de données tentent de jouer est celui de la température à l’intérieur des salles serveurs.

“Il y a 20 ans, il fallait porter une veste épaisse pour entrer dans un centre de données. C’était ce que désirait le client. Nous savons maintenant que la température à l’intérieur du centre de données peut être plus élevée [Ndlr: certains flirtent avec du 2A2°C voire même du 23°C]. Nos équipements informatiques le permettent et nous permettent également dans le même temps d’économiser de l’énergie.”

Mais baisser la température au coeur des infocentres et permettre une meilleur circulation et un échange plus efficace des flux de chaleur ne suffit pas…

L’enjeu du PUE

L’une des questions qui se pose est pointée par Laurens van Reijen dans son blog: “Les refroidisseurs et les aéroréfrigérants situés à l’extérieur, sur le toit, peuvent-ils supporter les températures plus élevées?”

Il souligne que les systèmes de refroidissement actuels permettent d’atteindre un PUE (Power Usage Efficiency), l’indicateur d’efficacité énergétique, de 1,3. [Pour rappel le PUE est un ratio calculé en divisant la puissance consommée par un infocentre par la puissance utilisée par les équipements qu’il a déployés.] “Avec les conceptions plus récentes, ce chiffre peut également être atteint à charge incomplète.

Data center Wallonia One de LCL (racheté à Cofely) aux Isnes.

Par le passé, le PUE était plus élevé en cas d’utilisation partielle des bâtiments. Un PUE de 1,3 est l’objectif à atteindre d’ici 2025 par les centres de données qui, comme LCL Data Centers, ont souscrit à l’initiative d’autorégulation, le Climate Neutral Data Centre Pact.”

Voilà qui mérite une explication…

Question de Regional-IT: Ce chiffre de 1,3 est-il le reflet de la situation chez LCL, de ses objectifs, ou est-ce une moyenne globale, tous opérateurs confondus?

Laurens van Reijen: 1.3 est le PUE moyen annuel prévu pour LCL Wallonia One [Ndlr: situé aux Isnes, près de Gembloux] avec un taux de charge des salles de 80%. L’objectif du LCL Wallonia One est un PUE de 1.25.

1.3 est-il réellement un chiffre en-dessous duquel il n’est pas possible, à l’heure actuelle, de descendre – ce qui contredirait par exemple les chiffres avancés par Google…?

Le PUE “parfait” serait de 1 mais c’est une utopie. Le PUE dépend du niveau de redondance du centre de données (Tier I, II, III, IV). Un plus grand niveau de redondance implique plus d’équipement technique et donc plus de pertes. Pour un infocentre de niveau Tier III, le PUE minimum annoncé à ce jour avoisine 1.25.

Dans votre blog, vous affirmez par ailleurs que 1,3 est “l’objectif à atteindre”. S’agit-il d’un engagement ferme, quasi-contractuel, pris par toute société qui adhère au Climate Neutral Data Center Pact (CNDCP)?

Les centres de données et les salles de serveurs en Europe doivent répondre à une norme élevée d’efficacité énergétique, qui sera démontrée par des objectifs d’efficacité de l’utilisation de l’énergie (PUE).

D’ici le 1er janvier 2025, les nouveaux centres de données fonctionnant à pleine capacité dans des climats frais atteindront un objectif PUE annuel de 1,3 – et de 1,4 pour les nouveaux centres de données fonctionnant à pleine capacité dans des climats chauds.

Il s’agit donc effectivement de l’objectif que toutes les sociétés qui adhèrent au Climate Neutral Data Center Pact doivent atteindre.

Imaginer de nouvelles méthodes de refroidissement

L’air ambiant extérieur, l’eau sont des habituels moyens naturels de refroidissement auxquels les exploitants ont recours pour faire baisser les températures au sein de leurs centres de données. Le free cooling, recours aux températures extérieures, a par exemple été traditionnellement l’allié de zones froides à tempérées. 

Voici ce qu’en dit Laurens van Reijen dans son blog : “Les refroidisseurs utilisent la température extérieure jusqu’à environ 14-16 degrés pour refroidir l’intérieur, mais il existe d’autres moyens de refroidir à moindre coût. 

Les fournisseurs de services cloud, par exemple, utilisent souvent l’eau car elle leur permet d’économiser sur leur facture d’électricité. Dans le cadre du Climate Neutral Data Centre Pact, cette évolution a déjà été prise en compte. Une norme a donc été élaborée pour imposer une consommation d’eau maximale en fonction des circonstances locales.”

Regional-IT: De quelle “norme” s’agit-il? Établie par qui? Supportée par quels acteurs?

Laurens van Reijen: Conformément au Green Deal européen, 25 fournisseurs de cloud et de centres de données, parmi lesquels LCL Data Centers, ont signé le Climate Neutral Data Center Pact (CNDCP).

Ce pacte a pris une initiative d’autorégulation, en collaboration avec la Commission européenne. Il soutient à la fois le Green Deal européen, qui vise à faire de l’Europe le premier continent climatiquement neutre au monde d’ici 2050, et la stratégie européenne des données, qui vise à rendre les centres de données de l’UE climatiquement neutres d’ici 2030.

Une des normes qui a été définies est celle qui concerne l’efficacité dans l’utilisation de l’eau – ou “Water Usage Effectiveness”, en anglais (WUE) – également sous connue sous l’appellation ISO/IEC DIS 30134-9.

Les centres de données opérant à pleine capacité répondront à une norme élevée de conservation de l’eau, démontrée par l’application d’un objectif d’efficacité de l’utilisation de l’eau sensible à l’emplacement et à la source.

D’ici le 1er janvier 2025, les nouveaux centres de données fonctionnant à pleine capacité dans les climats frais et utilisant de l’eau potable seront conçus pour respecter un WUE maximale de 0,4 l/kWh dans les zones soumises à un stress hydrique.

La limite de WUE peut être modifiée en fonction du climat, du stress et du type d’eau pour encourager l’utilisation de sources d’eau durables pour le refroidissement.

En quoi consiste concrètement la norme – et son application? Et que signifie concrètement l’expression que vous utilisez: “en fonction des circonstances locales”? Quels sont les critères de variabilité?

Laurens van Reijen: La norme intègre les paramètres suivants afin de définir un indicateur maximum à ne pas dépasser : 0.4 L/kWH x Climate x Stress x Water Type = WUE limit.

Petite définition de chacun des éléments de cette équation:
– “climate”
 : climat chaud ou froid
– “stress” : conditions d’abondance d’eau dans la zone ou le centre de données est exploité
“water type” : source d’approvisionnement de l’eau (ville, eaux grises, eau de mer).

Plus loin dans son blog, Laurens van Reijen fait allusion à une autre technique de refroidissement, à savoir le refroidissement adiabatique. “Notre bureau d’ingénieurs a étudié la question pour notre centre d’Alost. Cependant, le résultat était financièrement neutre par rapport aux autres systèmes de refroidissement.

De plus, nous ne souhaitions pas utiliser l’eau de ville pour des raisons écologiques. L’eau est rare et utiliser l’eau du robinet n’était pas, selon nous, une bonne idée. De plus, s’il y avait un problème avec l’eau du robinet, le système de refroidissement tomberait en panne. Nous ne pouvions pas prendre ce risque.”

Voilà qui mérite à nouveau quelques explications…

Regional-IT: Pouvez-vous préciser les critères d’évaluation financière qui ont amené LCL à la conclusion que “le résultat était financièrement neutre par rapport aux autres systèmes de refroidissement” ?

Laurens van Reijen: Les critères sont les suivants:
– prix d’achat
– coûts de maintenance
– consommation d’eau
– coût du traitement de l’eau
– consommation électrique
– coût / impact du recyclage de fin de vie.

Par ailleurs, les systèmes de refroidissement adiabatique fonctionnent-ils obligatoirement et uniquement avec l’eau de ville?

Non, ils peuvent utiliser de l’eau de ville, des eaux grises ou de l’eau de mer mais un traitement adéquat doit évidemment être appliqué en fonction – calcaire, impuretés, PH… [LCL précise ici que le groupe n’a recours aux “eaux grises” (eaux de pluie) que dans l’un de ses centres].

Le patron de LCL Data Centers fait par ailleurs allusion, dans son texte, à une autre piste de réflexion pour assurer le refroidissement des salles et des équipements. Le “refroidissement par immersion”. Cela implique d’immerger purement et simplement les serveurs, en tout cas les éléments de calcul et de traitement (jeux de processeurs, notamment) dans un liquide de refroidissement – une piste qu’explore actuellement par exemple Microsoft qui affirme que “les chipsets fonctionnant dans des environnements de refroidissement par immersion liquide peuvent augmenter les performances de 20% et préserver la performance dans des formats haute densité plus petits, permettant d’économiser de 5 à 15% de la consommation d’énergie” (citation de Microsoft Research puisée dans un article du Wall Street Journal).

Mais les recherches et tests en sont encore à un stade trop préliminaire pour s’y aventurer: “Avec le refroidissement par immersion, les serveurs sont plongés dans un liquide de refroidissement afin qu’ils restent opérationnels à des températures plus élevées. En outre, le PUE s’améliore considérablement. Toutefois, pour l’heure, il n’y a pas assez d’entreprises qui utilisent cette technique pour réellement connaître son efficacité même si cela apparaît comme prometteur.”

En conclusion…

Quelle conclusion tirer de tout ce qui précède?

Les vagues de chaleur ou la tendance qui se précise à un réchauffement climatique et à une multiplication des vagues et pics de chaleur impliquent-elles de nouveaux investissements pour les centres de données en Belgique?

Réponse de Laurens van Reijen: “Le réchauffement climatique impose de dimensionner différemment les groupes de froid. La “norme” en 2010, par exemple, consistait à calculer sur base d’une température extérieure maximale de 35°C. Aujourd’hui, les différentes canicules imposent de calculer les climatisations avec des températures extérieures de 45° voire 50°C.

Cela nécessitera des investissements supplémentaires, qui peuvent être réalisés dans un nouveau bâtiment ou lorsqu’une installation existante doit être remplacée. En sachant que tout système de réfrigération a un effet d’usure sur les composants, tels que les pompes, les compresseurs et les ventilateurs…”

 

Laurens van Reijen (LCL Data Centers): “Les différentes canicules imposent de calculer les climatisations avec des températures extérieures de 45° voire 50°C. Cela nécessitera des investissements supplémentaires…”.

Explorer d’autres pistes, au-delà du refroidissement

Autre solution à laquelle Laurens van Reijen fait allusion dans son texte: le forage pour le stockage de la chaleur et du froid. Autrement dit, les puits de chaleur. Mais se montre, là aussi, peu enthousiaste… “En forant une ou plusieurs paires de puits, il est possible de stocker de l’énergie, sous forme de chaleur (dans ce cas), dans le sol. Elle peut ensuite être utilisée par exemple pour chauffer des bâtiments. En Belgique, cela n’est possible que dans une mesure limitée. C’est par exemple possible en Campine.”

Même si les températures ont tendance à augmenter, la Belgique est en effet encore loin d’être un pays tropical et la nature du sol et du sous-sol ne se prête pas forcément à l’opération… “Cela dépend des couches de sable dans le sous-sol et de la profondeur qui doit être forée pour stocker la chaleur et le froid. Des cartes géologiques ont été développées à cet effet et malheureusement cette technique ne peut pas être utilisée autour de Bruxelles. Ceci était la conclusion d’une étude réalisée par un bureau d’études spécialisé que nous avons consulté.”