De par la multiplication de leurs implantations en France et leur impact énergétiques et environnementaux, les centres informatiques, deviennent l’objet de toutes les attentions, voire de critiques.
Les acteurs de la filière des centres informatiques (exploitants, bureaux d’études et concepteurs, fabricants de matériels) se sont heureusement engagés depuis plusieurs années à réduire leur empreinte écologique, souvent, d’ailleurs, pour des raisons de compétitivité et de réduction des coûts d’exploitation (OPEX). Ces progrès, qui doivent bien entendu se poursuivre, peuvent se mesurer par la baisse du PUE, indicateur d’efficacité énergétique (Power Usage Effectiveness), un des outils de mesure de cette efficacité énergétique.
Pourquoi et comment réduire ce PUE ?
Rappelons tout d’abord que ce PUE est le rapport entre l’énergie totale utilisée par le datacenter et l’énergie consommée effectivement par les équipements informatiques.
PUE = EDC/EIT
Cet indicateur, le plus connu et le plus utilisé, a été développé par le consortium The Green Grid et normalisé en 2016 par l’ISO/IEC par la publication de la norme internationale ISO CEI 30134-2.
Plus la valeur de ce PUE est basse et proche de 1 plus l’installation est efficace. Pour atteindre cet idéal théorique il faut réduire la consommation électrique des équipements de refroidissement, de l’alimentation électrique sécurisée, de l’éclairage, tout en conservant un haut niveau de sécurité et de disponibilité. Une récente enquête de l’Uptime Institute a montré que les datacenters de 2019 avaient un PUE moyen de 1,67 contre 1,8 en 2011. Mais cette valeur peut dépasser 2, voire 2,5 pour des datacenters petits ou anciens alors que pour les datacenters « hyperscale » récents il peut être inférieur à 1,1. Aujourd’hui, l’objectif, pour un nouveau centre ou lors d’une rénovation, est souvent d’atteindre une valeur de 1,2 à 1,4. Pour cela, il faudra optimiser la consommation électrique de tout l’environnement électrique, à commencer par le refroidissement qui est de loin le plus gros consommateur d’énergie, mais aussi toute la chaîne électrique du transformateur aux onduleurs, l’éclairage et les systèmes de sécurité.
Réduire la consommation des systèmes de refroidissement
Pour Caroline Vateau, directrice du département numérique responsable d’APL, , un cabinet de conseil et d’ingénierie spécialisé dans la conception et la réalisation de datacenters « la réduction de l’empreinte carbone de ces datacenters va passer par le choix des meilleures solutions de refroidissement adaptées à la taille du centre, son implantation géographique et les équipements et applications hébergés. Car l’utilisation croissante d’applications de haute densité, comme le big data, l’intelligence artificielle, l’analyse des données, vont générer de nouvelles demandes de refroidissement pour les datacenters existants ou les nouveaux sites ».
Pour François Salomon, responsable du développement de l’offre Froid/Climatisation de Schneider Electric, « la tendance est au free cooling, c’est-à-dire à l’utilisation de sources gratuites pour refroidir les datacenters. Il y a une véritable prise de conscience des exploitants aujourd’hui. Pour s’assurer qu’il constituera le principal mode de refroidissement, le free cooling est à la base de la conception du bâtiment. Les sources de free cooling vont varier suivant l’environnement : le datacenter est-il localisé à Lille, Nantes ou Marseille ? Est-il à la campagne ou en ville avec des contraintes d’espace, d’humidité, de bruit ou de pollution ? En fonction de ces paramètres, le climaticien va pouvoir concevoir l’architecture de son système de production de froid adapté au process ».
Une tendance forte se développe, celle du froid adiabatique qui permet d’abaisser la température de l’air dans la salle par évaporation d’eau à partir de buses qui pulvérisent localement de fines gouttelettes d’eau sur des échangeurs. La production de froid adiabatique est une option complémentaire aux solutions de free cooling liquide ou à air. Des solutions qui conjuguent une réduction des coûts d’exploitation et une amélioration sensible du PUE. Disponibles en modules, elles permettent de répondre à un large panel de datacenters et d’accompagner leur montée en puissance. La prochaine technologie majeure pourrait être, selon Steve Madara, VP Thermal Management de Vertiv, le refroidissement direct par liquide. « Le refroidissement direct par liquide s’applique lorsque le processus est directement attaché à l’échangeur thermique avec liquide ou entièrement plongé dans un liquide aux fins de dissipation de chaleur. Mais il s’agit d’un changement radical par rapport aux approches de refroidissement traditionnelles et cela requiert des modifications considérables des sites, ainsi que des ajustements des équipements associés. »
Cette solution de refroidissement par liquide est mise en œuvre dans la « chaudière numérique » QB.1 développée par Qarnot Computing. QB.1 chauffe de l’eau grâce à la chaleur développée par les ordinateurs en fonctionnement. Cette eau, dont la température peut atteindre 60 °C, est soit de l’eau chaude sanitaire, soit le chauffage du retour de boucle. Pour Paul Benoit, président de Qarnot, « QB.1 est une prouesse technologique et écologique, résultat de 3 ans de R&D en interne. Nous savions que la chaudière numérique Qarnot était très attendue, le carnet de commandes le confirme car nous sommes au carrefour de plusieurs préoccupations : l’environnement, la transition écologique et l’innovation ». Cette version de 24 CPU propose jusqu’à 3 kW de puissance mais son fonctionnement modulaire permet d’adapter le nombre d’unités aux besoins du client.
Améliorer le rendement de toute la chaîne d’alimentation électrique
Cette chaîne, du poste de transformation à la distribution dans les baies, représente le 2e poste de consommation du datacenter. Et les onduleurs en fonctionnement permanent dans cette chaîne sont la première source de consommation d’électricité. Ces onduleurs, souvent redondants pour assurer une disponibilité maximale, fonctionnent rarement à pleine charge. Les constructeurs s’attachent donc à obtenir un rendement maximal dès que la charge dépasse 20 ou 30 %.
ABB propose son nouvel onduleur DPA 250 S4 et, mentionne Didier Payelleville, responsable de l’Activité Datacenter d’ABB France, « avec son rendement par module de 97,6 %, des pertes réduites de plus de 30 %, une fiabilité optimale, un temps d’immobilisation inexistant et un TCO réduit, le système d’alimentation sans coupure (UPS) DPA 250 S4 est un des plus écoénergétique du marché. Avec son architecture parallèle décentralisée il couvre une plage de puissance comprise entre 50 et 1 500 kW ».
Une modularité qui est de plus en plus présente pour ces équipements car elle permet d’ajuster la puissance sécurisée disponible en fonction de la montée en puissance du centre informatique. Ce qui va éviter d’avoir des installations électriques très peu chargées pendant cette phase, donc fonctionnant à un rendement bien plus faible.
Cette modularité, Schneider Electric l’a retenue pour sa gamme Galaxy VX de 750 kW à 4 MW avec des modules de 250 kW. Cette technologie à 4 niveaux permet un rendement maximal de 96,5 % mais, précise Patrick Bois, Business Development Director Global Sales Secure Power Division de Schneider Electric, « nous avons un mode de fonctionnement exclusif Mode ECOconversion qui assure un très haut rendement, jusqu’à 99 %, en restant conforme à la classe 1 de la norme IEC 62340-3 par transfert sans coupure de l’utilisation en cas de perte de réseau, tout en assurant une correction du facteur de puissance en aval de l’onduleur et un filtrage des harmoniques. C’est une alternative sophistiquée au mode double conversion pour lequel nous dépassons 96 % dès 30 % de charge. Et nous avons intégré une protection backfeed qui évite tout retour d’énergie sur le réseau ainsi qu’une fonction Smart Power Test qui permet de tester l’UPS et la batterie sans banc de charge ».
Pour sa solution modulaire Modulys XL de 200 à 4 800 kW présentée au salon Data Center World Paris 2019, Socomec annonce un rendement de 97 %. Pour Christophe Dorschner, Product Line Market Manager de Socomec : « Socomec a créé une nouvelle génération d’équipements. Pour les puissances moyennes, de 25 à 250 kW, Legrand a présenté Keor MOD, une ASI modulaire parallélisable jusqu’à 24 modules de puissance, dont le rendement en mode on-line atteint 96,8 % ».
De son côté, Vertiv, en complément de sa gamme Liebert TrinergyCube de 150 kW à 3,4 MW, propose sa nouvelle gamme Liebert APM (30 à 600 kW), flexible et modulaire avec des modules de 30 et 50 kW. Vertiv annonce pour cette ASI en mode double conversion un rendement atteignant 96,3 %.
Nouvel arrivant sur le marché français, Huawei, déjà bien implanté sur le marché chinois des datacenters, annonce pour sa gamme d’UPS modulaires UPS5000-S Series (25 à 800 kW) et FusionPower 500 (1,2/1,6 MW) un rendement de plus de 97 %. Pour Michel Fraisse, Europe VP Telecom Energy & CTO Network Energy Product Line de Huawei, « la conception redondante des modules élimine les points de défaillance et fournit des pré-avertissements. Ils réduisent le PUE grâce à une conception hautement efficace avec un rendement de 96 à 97 % pour la charge la plus courante ». Un rendement maximal de 97 % est aussi annoncé pour la gamme NextEnergy NXE (250-400 kVA) de Riello.
En quelques années, l’utilisation de convertisseurs IGBT à 3 ou 4 niveaux a ainsi permis de gagner 3 ou 4 % de rendement et de diviser les pertes par 2.
L’importance des solutions DCIM pour réduire ce PUE et l’arrivée de l’intelligence artificielle
S’il est un point qui reste crucial, c’est, pour l’exploitant, d’avoir une vision complète de ses salles informatiques, baies et équipements annexes pour s’assurer de leur bonne utilisation et bon fonctionnement, anticiper des défaillances, prévoir des extensions et modifications, gérer l’urbanisation des baies. Pour gérer la complexité d’un ou plusieurs sites, tout en gardant un haut niveau de disponibilité, en maîtrisant tous les coûts dont celui de l’énergie, un outil DCIM (Data Center Infrastructure Management) est indispensable. De nouvelles générations de DCIM sont apparues pour des environnements hybrides, avec des équipements répartis sur plusieurs sites, des clouds publics ou privés. Ces outils offrent une surveillance complète de l’infrastructure, automatisant un grand nombre de tâches de gestion et émettant des alertes en cas de besoin.
Schneider Electric propose ainsi une nouvelle génération de DCIM, EcoStruxure IT Expert, qui est compatible avec d’autres outils de gestion et de surveillance à distance. Ces outils sont plus faciles à utiliser et apportent une solution à des problèmes de plus en plus complexes.
ABB a développé une solution ABB AbilityTM Data Center Automation sécurisée, évolutive, ouverte et modulaire, compatible avec toutes les technologies et toutes les marques. Et, explique Didier Payelleville, « ABB Ability Data Center Automation est une solution développée en partenariat avec un acteur majeur de la colocation. L’un des principaux défis actuels concerne la réduction de l’impact des datacenters sur l’environnement. La nouvelle solution d’ABB présentée au DCW de Paris permet de visualiser et de surveiller les caractéristiques environnementales, énergétiques et du refroidissement des datacenters afin d’identifier les opportunités d’amélioration ». Cette solution ABB Ability Data Center Automation « convergée » se caractérise notamment par une accessibilité totale à tous les équipements, grâce à des tableaux de bord de pointe qui proposent des données claires et exhaustives.
Pour la visualisation et le suivi en temps réel des infrastructures critiques, Vertiv a développé Trellis Critical Insight, une application multilingue et multi-utilisateur qui concerne les opérateurs et leurs équipements et systèmes d’infrastructures critiques via Internet ou un intranet propriétaire. Cet outil va permettre la surveillance en temps réel, la visualisation, la gestion des ressources et la planification des capacités.
Nlyte Software, société spécialisée dans le développement de solutions logicielles DCIM, propose une solution comme Nlyte Platinum qui permet d’automatiser la gestion des actifs, ressources, processus et personnes tout au long du cycle de vie du datacenter, avec par exemple la gestion des modifications, l’identification des actifs sous-utilisés, les menaces de sécurité ou la prévention des pannes.
Mais l’arrivée de l’intelligence artificielle (IA) et de l’apprentissage automatique, le développement d’algorithmes conçus pour l’automatisation des tâches et la maintenance prédictive vont bouleverser tout cela. Pour Kim Povlsen, VP and General Manager of Digital Services and Data Center Software de Schneider Electric, « les algorithmes d’IA ouvrent la voie à une automatisation complète de l’infrastructure critique, que ce soit dans les centres de données, en périphérie ou dans les salles de serveurs sur site. En 2020, nous verrons de réels progrès dans la prochaine étape de maintenance prédictive. Dans la mesure où les algorithmes apprennent des données qu’ils collectent, ils permettront au logiciel, au micrologiciel et au matériel de déclencher une action pour résoudre un problème sans intervention humaine ».
On commence à parler de centre de données « écologiques » avec une tendance forte à réduire l’empreinte écologique. L’IA et des technologies d’automatisation joueront certainement un rôle dans cette évolution en permettant aux exploitants d’affiner le contrôle et la réduction de leur consommation d’énergie et de leur empreinte carbone pour d’autres composantes comme la consommation d’eau ou la récupération de chaleur fatale.
Quelques réalisations exemplaires
Des datacenters nouveaux ou après rénovation mettent déjà en œuvre des technologies souvent innovantes pour réduire cette empreinte écologique, en jouant sur plusieurs facteurs.
Conçu et réalisé par APL, le datacenter d’Advanced MedioMatrix, qui sera inauguré à Metz au premier trimestre pour offrir des services d’hébergement aux acteurs du Grand Est, intègre de nombreuses technologies permettant de réduire son impact environnemental, et notamment son PUE, dont le niveau cible est inférieur à 1,3 à pleine charge. Ainsi, explique Michaël Cohen, directeur de la stratégie et du développement d’APL : « Les salles informatiques bénéficient par exemple d’un système de “free cooling direct » : elles sont refroidies 90 % du temps avec de l’air extérieur purifié. Le bâtiment est équipé d’un système de récupération des eaux de pluie, de panneaux photovoltaïques, de six groupes électrogènes, et d’un dispositif de recyclage de la chaleur dissipée par les matériels informatiques pour chauffer les espaces tertiaires. Le datacenter a été conçu et sera exploité selon les standards les plus élevés d’excellence opérationnelle (ISO 9001), de disponibilité (Uptime TIER III Design & Facility), de sécurité de l’information (ISO 27001, HDS, PCI-DSS) et de performance énergétique et environnementale (ISO 50001, ISO 14001, Code of conduct for datacenter). APL accompagne l’obtention de ces certifications. »
Pour réaliser sa transformation numérique, l’Université de Bordeaux a décidé de remplacer une dizaine de salles IT peu performantes et énergivores par un datacenter unique permettant de réduire l’empreinte écologique des activités de stockage/calcul des unités de recherche. « La démarche menée conjointement par l’Université de Bordeaux, Dell EMC et Schneider Electric, qui visait à regrouper dans un seul datacenter des infrastructures réparties sur près de 14 sites et aux technologies plus ou moins obsolètes, nous permet de diviser par deux la consommation énergétique de ce nouveau datacenter. Cette réalisation confirme qu’un datacenter bien pensé et réalisé selon les meilleures pratiques (free cooling, monitoring intelligent, urbanisation structurée, etc.) contribue à réduire l’empreinte carbone de l’économie numérique », déclare Philippe Torres, responsable commercial Projets Datacenter de Schneider Electric.
Pour son nouveau datacenter MRS3, installé à Marseille dans une ancienne base de sous-marins allemande (qui n’a jamais été opérationnelle après sa construction en 1943), l’opérateur Interxion va mettre en œuvre un refroidissement des serveurs pour le moins original. Les 6 800 m2 de salles blanches seront refroidies par l’eau à 15 °C de la « Galerie de la Mer », créée au début du siècle dernier pour évacuer les eaux souterraines des mines de Gardanne, cette galerie passant près du site avant de se jeter dans la mer.
Quelques exemples de solutions innovantes qui vont permettre des gains substantiels de PUE et des économies d’énergie, de surfaces ou de liquide de refroidissement.
Jean-Paul Beaudet