La puissance électrique installée des datacenters dans le monde a dépassé les 30 000 MW, soit plus de 2 % de l’énergie électrique consommée sur la planète. Dans le même temps, cette énergie est de plus en plus coûteuse et génératrice d’émissions de CO2 à réduire drastiquement, ce qui amène concepteurs et constructeurs d’équipements à proposer aux exploitants de nouveaux concepts de refroidissement moins gourmands en énergie, mais aussi mieux adaptés aux besoins, aux tailles et architectures des salles et à leur évolution dans le temps et cela pour des nouveaux sites ou des rénovations.
Pour Séverine Hanauer, Sales Manager Solutions et Applications d’Emerson Network Power, « la demande en France est plus importante pour la haute densité avec 2,5kW/m2 chez les hébergeurs pour optimiser la rentabilité, mais avec le cloud et la virtualisation on augmente aussi la densité dans les salles petites et moyennes avec une taille de baies en hausse de 1 à 1,2 m. D’où une palette de solutions constructeurs plus importante qu’il y a 10 ans et plus d’innovations en « thermal management » avec de nouvelles solutions en free cooling. L’objectif est de réduire le PUE tout en augmentant la température dans les salles avec des allées froides et chaudes et des températures de retour plus élevées (35 °C) ».
De nouvelles recommandations et normes
Les dernières recommandations publiées par l’ASHRAE (American Society of Heating, Refrigerating and Air Conditioning Engineers) concernant l’environnement des équipements informatiques permettent une plage de température de 15 à 32 °C pour la classe A1, alors que l’on était à 20-25 °C en 2004. La norme ETSI EN 300 019-1-3 classe 3.1 définit également de nouvelles plages de température et d’humidité. Ces recommandations et le développement par les constructeurs de nouveaux matériels répondant à ces prescriptions ont entraîné la mise sur le marché de nouvelles solutions en free cooling direct et indirect. Ces technologies vont permettre de passer d’un PUE de 1,5 à 2 pour des installations traditionnelles à des PUE compris entre 1,2 et 1,5, d’où un gain très important sur la consommation d’électricité du site. Ce que confirme Damien Giroud, directeur France Solutions Datacenters de Schneider Electric : « On peut travailler avec des températures d’eau plus élevées de 15 à 22 °C au lieu de 8-12 °C, ce qui a un impact fort sur le PUE et ne nécessite plus, comme avec les températures basses, d’utiliser de la chaleur en déshumidification, on ne condense plus en montant la température et on peut alors supprimer les bacs de condensats. » Selon Damien Giroud, l’ASHRAE devrait encore monter les températures admises en entrée serveurs ; un pas qu’a franchi l’Université de Grenoble en ayant des températures de soufflage de 27 °C.
Le free cooling de plus en plus utilisé
En moins de 10 ans on est passé d’une climatisation traditionnelle dans la salle à des solutions groupe froid/free chilling utilisables dès quelques racks (30 kW) jusqu’à des puissances très importantes telles que 10 x 1,1 MW pour l’hébergeur Interxion pour le site de Paris VII-2. Ce sont des solutions flexibles, avec un petit budget, un retour sur investissement (ROI) rapide que l’on peut superposer à des groupes froids existants pour optimiser les coûts.
D’appareils de refroidissement périmétriques qui font circuler l’air froid sous un plancher technique l’on est passé à un refroidissement par rangées de baies avec des trajets de ventilation plus courts et mieux définis qui permettent de réduire la puissance des ventilateurs et de mieux cibler les capacités de refroidissement suivant la densité des applications. La dernière solution est un refroidissement par rack, les unités de refroidissement étant montées directement sur les racks informatiques. Toute la capacité de refroidissement peut être utilisée et des densités de puissances très élevées peuvent être atteintes. Plusieurs solutions de production de froid en free cooling sont proposées par les constructeurs, mais les plus utilisées sont le free cooling indirect à l’air et le free cooling indirect air/eau [voir encadré].
Les solutions de free cooling
- free cooling direct à l’air : introduction de l’air extérieur filtré pour refroidir le datacenter ;
- free cooling indirect à l’air : utilisation de l’air extérieur sans son introduction dans la salle (échangeur) ;
- free cooling indirect air/eau (ou free chilling) :
– groupe froid à condensation par air avec free cooling integer,
– groupe froid à condensation par eau et refroidisseur associé à un échangeur à plaque ;
– free cooling indirect eau/eau : utilisation indirecte d’eau de nappe ou d’eau de rivière avec échangeur.
Pour Damien Giroud, « 95% des installations se font en free cooling hormis quelques cas de rénovation où les contraintes de bâtiment ne permettent pas sa mise en œuvre. Mais on peut toujours s’orienter vers un confinement allées chaudes/allées froides avec des unités périmétriques plus performantes avec vitesse variable, communication avec le chiller et pilotage de la température en fonction de la charge ».
Les offres des constructeurs sont de plus en plus diversifiées pour couvri r les besoins et possibilités d’implantation des utilisateurs. Emerson Network Power propose ainsi une unité de free cooling indirect air avec échangeur évaporatif. Selon Séverine Hanauer, « ces unités Liebert EFC de 100 à 350 kW intègrent une technologie d’échange air/air et de refroidissement par évaporation en modules compacts et autonomes faciles à installer et qui communiquent entre eux, avec une consommation d’eau optimisée. Ils permettent d’atteindre des PUE partiels < 1,1. Nous proposons également une solution en free cooling adiabatique humidifiant l’air entrant dans l’échangeur et dans le condenseur. Des compresseurs de technologie multi-scroll garantissent l’intégralité du refroidissement de secours jusqu’à 50 °C, même en cas de coupure d’eau. Ces modules sont disponibles de 500 à 1 450 kW ».
Mohamed El Barkani, Datacenter Manager chez Digital Realty qui exploite 130 datacenters dans le monde dont un de 50 000 m2 à Saint Denis, confirme que le free cooling permet d’améliorer l’efficacité énergétique : « Notre nouveau datacenter de Dublin en free cooling indirect peut fonctionner sans groupes froid pour des températures < 28 °C en utilisant un refroidissement adiabatique et atteint un PUE de 1,15, à comparer au PUE de 1,45 du site de Saint Denis construit en 2008 sans free cooling. Mais l’utilisation d’un outil DCIM (Data Center Infrastructure Management) permet aussi d’optimiser les consommations, par exemple en surveillant les machines virtuelles ou en mettant en veille des serveurs inutiles ». Jorge Da Silva, Colt, qui exploite 29 datacenters en Europe/Asie, a retenu pour les dernières générations de datacenters le cloisonnement des allées froides et le free cooling avec un retour d’expérience important depuis 2009 : « 50 % d’équipements en moins, free cooling pendant plus de 80 % de l’année et moins de risques d’incidents ».
Des solutions modulaires pour s’adapter rapidement
Pour toutes ces nouvelles solutions de refroidissement, la modularité est devenue la règle que ce soit pour des modules de refroidissement eau glacée ou des modules de free cooling air. Cette modularité est devenue une valeur d’usage pour les exploitants. Pour François Salomon, Cooling Business Development Manager de Schneider Electric, « il y a une prise de conscience des clients, conceptualiser sa modularité est bien entré dans les mœurs et les petites briques sont devenues la règle. Cette modularité a un surcoût estimé à 15 % sur 10 ans, mais avec une économie sur l’investissement, les coûts de maintenance et d’exploitation. Ces modules préfabriqués sont plus rapides et moins onéreux à déployer qu’une approche traditionnelle ». Ces modules peuvent généralement être installés en intérieur, extérieur au sol ou sur le toit. Cette installation sur le toit a été retenue par SAP France pour son nouveau datacenter de Levallois-Perret, une installation plutôt spectaculaire : les groupes froid free cooling Uniflair de Schneider Electric ont été installés sur le toit du bâtiment de 22 étages grâce à un hélicoptère Super Puma. Ces groupes sont associés à des climatisations InRow nouvelle génération avec confinement de l’allée chaude, l’ensemble faisant l’objet d’une gestion intelligente du froid par le logiciel de DCIM. Ces logiciels de DCIM peuvent réaliser une gestion automatique du refroidissement, par exemple en modifiant la température pour optimiser la consommation des climatiseurs ou en supprimant les points chauds.
Dimensionner ses équipements :
Connaître la charge IT (identifier les profils de serveurs)
– Déterminer une densité moyenne (4/8/15/20 kW par racks)
– Connaître le débit d’air nécessaire (blade 200m3/h/kW versus pizza 290m3/h/kW) et le sens de refroidissement des charges (notamment pour les switch)
– Se faire une idée du rythme de déploiement sur 3 à 5 ans à granularité de la solution
– Vérifier le mode d’alimentation des charges à simple/double/triple alimentation
Déterminer les possibilités de granularité des briques de base
– Cellule MT à faible
– Transformateurs de puissance MT/BT à moyenne
– Groupe électrogène à moyen –
– Groupe froid à moyen
– TGBT amont à faible
– UPS à élevé
– TGBT aval UPS à élevé
– Unités de climatisation à moyen +
– Baies / Rack PDU à élevé
– Réseau d’eau glacée à moyen –