La publication de l’étude « Empreinte environnementale du numérique mondial » de Frédéric Bordage, du GreenIT.fr, vient de le rappeler : l’empreinte environnementale du monde numérique, comprenant les datacenters, croît d’année en année avec, en 2019, 34 milliards d’équipements pour 4,1 milliards d’utilisateurs. S’ils n’arrivent qu’en 4e position pour la consommation électrique – derrière la fabrication des équipements utilisateurs, la consommation électrique de ces équipements et la consommation électrique du réseau –, les datacenters ont un impact non négligeable. S’ajoute à cette consommation celle liée à la fabrication des équipements hébergés par les datacenters (serveurs, switches…).
Caroline Vateau, directrice du département Numérique responsable d’APL, le souligne : « Véritable colonne vertébrale du système d’information, les datacenters doivent avant tout garantir les plus hauts niveaux de disponibilité aux parties intéressées. En effet, lors d’une interruption de service consécutive à une panne, les coûts indirects (liés à l’indisponibilité des applications hébergées) dépassent largement les coûts directs (réparation, remise en service). En parallèle, la question de la performance environnementale et énergétique est devenue une préoccupation majeure des organisations, à la fois pour des raisons économiques et écologiques. Les dépenses énergétiques représentent ainsi environ 50 % du coût total de possession de l’infrastructure des datacenters. En outre, les attentes sociétales sont de plus en plus fortes, si bien que les entreprises cherchent désormais à réduire l’empreinte environnementale de leurs centres de données. »
L’experte d’APL poursuit : « La réduction de l’empreinte carbone de ces datacenters va passer par le choix des meilleures solutions de refroidissement adaptées à la taille du centre, son implantation géographique et les équipements et applications hébergés. Car l’utilisation croissante d’applications de haute densité comme le big data, l’intelligence artificielle, l’analyse des données, va générer de nouvelles demandes de refroidissement pour les datacenters existants ou les nouveaux sites. »
Toutefois, comme le remarque Séverine Hanauer, directrice des ventes Data Center & Telecom et directrice Consulting & Solutions de Vertiv, « à l’heure de la transformation digitale, la question de la multiplication des datacenters et de leur consommation énergétique se pose naturellement. Si les besoins en stockage et en traitement se développent en effet de façon exponentielle pour répondre aux enjeux du digital, les technologies d’infrastructure progressent également au niveau du rendement et limitent donc l’impact énergétique des datacenters. Ainsi, pour des capacités de stockage ou de calcul équivalentes, le volume occupé dans les salles IT se réduit progressivement, nécessitant moins de consommation, tant en alimentation électrique qu’en refroidissement. Ce qui est déjà un vrai progrès face à l’accélération des besoins en traitement de données numériques ».
L’importance de l’urbanisation des salles informatiques
« Les performances énergétiques d’un datacenter dépendent principalement de sa conception et de son environnement, insiste François Salomon, responsable du développement de l’offre Froid/Climatisation de Schneider Electric. Il est essentiel d’urbaniser la salle informatique en structurant les rangées de racks informatiques en allées froides et allées chaudes confinées. En séparant ainsi les flux d’air chaud et les flux d’air froid, il est possible de gagner 7 à 8 °C sur la température d’exploitation des locaux, et donc de faire des économies substantielles. »
Cette urbanisation devra prendre en compte plusieurs paramètres : infrastructures des salles et du bâtiment, dont les systèmes de refroidissement, architecture des équipements et systèmes hébergés. Mais, remarque François Salomon, « pour une rénovation, cette réurbanisation peut être un challenge important pour savoir si on peut augmenter les températures de salle ou mettre en place un free cooling ».
Car la tendance est vraiment au free cooling, c’est-à-dire à l’utilisation de sources gratuites pour refroidir les équipements informatiques. Des sources de free cooling qui vont varier selon l’environnement et les contraintes d’espace, d’humidité ou de pollution.
Le développement du free cooling et du froid adiabatique se poursuit
Des solutions poussées par les grands acteurs de la colocation qui challengent les constructeurs, d’où l’apparition régulière de nouvelles solutions toujours plus performantes. Le free cooling à air direct ou indirect s’est démocratisé en quelques années, une solution particulièrement bien adaptée pour les grands datacenters. Le free cooling direct paraît plus simple mais, pour François Salomon, « il peut être difficile à mettre en œuvre avec les risques de pollution de l’air ou la gestion de l’hygrométrie. Le free cooling indirect, qui utilise un échangeur air/air, amène dans la salle un air propre, sans pollution. Notre solution modulaire Ecoflair offre ainsi une réponse économique et éco-énergétique au refroidissement des salles. Son échangeur de chaleur en polymère résiste beaucoup mieux à la corrosion que l’aluminium et il est modulaire, ce qui le rend facilement remplaçable. Ces équipements livrés clés en main sont simples à installer à l’extérieur, libérant ainsi de l’espace dans les salles blanches ».
L’utilisation du froid adiabatique va permettre d’abaisser la température de l’air dans la salle informatique par évaporation d’eau : de fines gouttelettes d’eau sont pulvérisées sur les échangeurs ; lorsque la brume s’évapore, elle absorbe de la chaleur, refroidissant un peu plus le système de cooling. Une solution qui est de plus en plus performante car, dans le même temps, l’objectif est de relever la température des salles de serveurs.
Relever la température des salles pour améliorer la performance énergétique
Depuis 2015, l’ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers), qui fait autorité dans le domaine, recommande des plages de températures en entrée de serveurs de 18 à 27 °C, avec une hygrométrie entre 8 et 60 % sans compromettre le fonctionnement ou la continuité de service. « Cette augmentation des températures de fonctionnement ouvre de nouvelles possibilités pour les exploitants de datacenters, explique Nicolas Miceli, responsable du pôle Performance énergétique et Innovation d’APL. Elle rend possible une densification des salles informatiques sans remplacement des matériels de climatisation, et donc sans avoir à réaliser d’investissement supplémentaire. Elle permet aussi de réduire de manière importante la consommation énergétique à isopérimètre IT. La hausse de température en entrée de serveurs rend également l’usage du free cooling ou du free chilling (systèmes qui consistent à utiliser l’air extérieur pour souffler de l’air frais dans la salle ou refroidir l’eau à la place du groupe de production d’eau glacée) bien plus intéressant, notamment dans les régions tempérées. » Et, confirme François Salomon, « nous proposons du free cooling indirect en augmentant les températures des salles dans les allées froides jusqu’à 25/26°, et pour le free cooling à eau glacée nous avons des régimes d’eau plus élevés, 20/22° au départ de l’eau, mais il faut des armoires conçues pour ces régimes avec des retours d’eau à 30 °C : il faut plus de surface d’échange. La nouvelle réglementation européenne F-Gaz sur les fluides frigorifiques, qui bannit certains en 2036, profite à l’eau glacée plutôt qu’à la détente directe. Ces nouveaux fluides nécessitent également de redimensionner les technologies avec des groupes d’eau glacée dimensionnés sur la base du free cooling en technologie “trim cooling” avec des compresseurs à vitesse variable ».
Car si de nouveaux réfrigérants comme le R 1234ze sont disponibles avec un PRG (pouvoir de réchauffement global) bien inférieur à celui de réfrigérants fluorés ou « naturels » (ammoniac ou propane), leur capacité de refroidissement est aussi inférieure de 20 % à celle d’un réfrigérant à HFC (en cours de suppression) comme le R 134e.
Séverine Hanauer précise : « Tous ces changements ont pour objectif :
• de réduire la quantité de réfrigérants des systèmes à détente directe en diminuant les volumes et en utilisant des échangeurs thermiques plus efficaces,
• d’augmenter la température de fonctionnement des datacenters pour réduire les besoins en refroidissement mécanique,
• de favoriser les systèmes de refroidissement à eau glacée à options free cooling et adiabatiques pour réduire la quantité totale de refroidissement mécanique nécessaire,
• d’encourager globalement la conception de systèmes de refroidissement à faible consommation énergétique.
La nouvelle législation offre une véritable opportunité pour la poursuite de l’innovation dans le domaine de la climatisation de datacenters. Vertiv suit de près l’évolution de la disponibilité des réfrigérants et réfrigérants émergents, tout en continuant à développer des conceptions alternatives pour doter ses clients d’un choix aussi large que possible en systèmes de refroidissement économiques et efficaces sur le plan énergétique. »
De nouvelles solutions de refroidissement se développent mais restent encore très minoritaires
Avec l’évolution de la technologie vers des serveurs très puissants et une puissance dans les racks qui peut atteindre 50 ou 60 kW, le refroidissement direct par liquide présente bien des avantages, le processeur étant directement monté sur l’échangeur thermique avec liquide. L’étape suivante peut être un refroidissement par liquide diélectrique dans lequel les serveurs sont immergés. Cette solution est mise en œuvre depuis 2017 par la société Immersion4 et, explique Serge Conesa, son PDG et fondateur : « L’huile dissipe 1 500 fois mieux la chaleur que l’air et va permettre de récupérer cette chaleur par un échangeur thermique pour la transformer en chauffage, air frais ou électricité. Une solution pour laquelle vous n’aurez plus aucun ventilateur, un gain de place pour votre datacenter, aucune humidité ou corrosion pour les composants sans consommation d’eau ou d’émissions de CO2. »
Une solution qui intéresse aussi Schneider Electric, qui a annoncé le 2 octobre 2019 lors de son Innovation Summit de Barcelone sa collaboration avec Avnet et Iceotope, société américaine ayant développé des solutions de refroidissement par immersion au niveau du châssis. L’analyse par Schneider Electric de cette solution, par rapport à une solution traditionnelle, montre une économie de 15 % en Capex et au moins 10 % en économies d’énergie.
Cette solution demande bien entendu des modifications des serveurs, mais plusieurs fabricants livrent déjà des équipements adaptés à ce refroidissement.
Avis d’expert
Linda Lescuyer, directrice Énergie d’Interxion France
Face aux enjeux environnementaux associés aux usages numériques, Interxion, opérateur de datacenters leader en Europe, a développé des solutions concrètes afin de réduire son empreinte carbone et optimiser l’efficience énergétique de ses bâtiments : tour d’horizon de ces initiatives écoresponsables.
Pour une consommation responsable de l’énergie
En France, la filière data center bénéficie d’une électricité décarbonée. Chez Interxion, nous avons souhaité aller plus loin, en soutenant depuis 2014 la production d’énergies renouvelables par le biais des Certificats de Garanties d’Origine. Une initiative évidente à nos yeux qui permet de réinjecter dans le réseau électrique français l’équivalent de 100 % de notre consommation électrique en énergie verte.
L’efficience énergétique au cœur des préoccupations
L’application des normes ASHRAE 2011, autorisant l’augmentation de la température de fonctionnement des serveurs (désormais à 25-26 °C), a permis aux opérateurs de réduire considérablement le recours à la production de froid, et ainsi d’abaisser leur PUE (Power Usage Effectiveness).
Parmi les technologies disponibles pour le refroidissement des bâtiments, le « free cooling », ou refroidissement à air libre, est aujourd’hui à l’œuvre sur la grande majorité des data centers, y compris pour Interxion. À Paris, cette technologie nous a permis de fonctionner 75 % de l’année sans production additionnelle de frigories.
Parmi les autres leviers actionnables, la profession a d’ores et déjà mis en œuvre un ensemble de bonnes pratiques dans les salles informatiques : de la conception modulaire à l’achat d’équipements économes d’un point de vue énergétique, en passant par la compartimentation des flux d’air chaud et froid au niveau des serveurs. Ces optimisations mises bout à bout permettent de passer d’un PUE réel supérieur à 2-3, à des PUE inférieurs à 1,5, pour les data centers les plus efficients, représentant une économie de 50 à 200 % des besoins énergétiques des infrastructures associées aux équipements informatiques.
Chez Interxion, l’ensemble de ces bonnes pratiques a été mis en place depuis longtemps, permettant d’améliorer l’efficience énergétique de nos data centers existants de 9 % sur les quatre dernières années. Quant au PUE de nos bâtiments, le PUE théorique est inférieur à 1,3 ; le PUE réel d’exploitation, qui dépend des choix – le plus souvent hétérogènes – d’équipements informatiques faits par nos clients, reste néanmoins inférieur à 1,5.
Innover pour le data center de demain
À Marseille, nous expérimentons une solution de refroidissement à eau qui permettra d’emprunter l’eau d’une ancienne galerie minière, à 15 °C toute l’année, pour refroidir par échange thermique les data centers MRS2 et MRS3 d’Interxion, positionnés sur le port de Marseille. Cette solution innovante devrait garantir une production thermique de 22 MW pour 11 450 m2 de salle IT, et permettre d’abaisser le PUE réel d’exploitation de ces bâtiments à moins de 1,2. Enfin, les calories générées seront mises à disposition des autorités locales compétentes pour servir à l’alimentation du réseau de chaleur urbain.
Jean-Paul Beaudet