X

Baies informatiques : des solutions pour répondre à la complexité croissante des besoins et des installations

Ces baies informatiques, nous allons les retrouver à l’unité ou quelques unités dans les petits datacenters de proximité de l’Edge Computing ou par centaines d’unités rangées en allées dans les grands ou très grands datacenters des hébergeurs ou des géants du Web.
Mais toutes devront répondre aux mêmes exigences de mise en place simple et robuste, d’évolution durant la vie du datacenter, en s’adaptant à tous les matériels : serveurs, unités de stockage, mais aussi équipements de distribution électrique (PDU, bandeaux de distribution électrique) et de refroidissement (air ou eau), de surveillance et de gestion à distance, de câblage et de connectique.

Offrir des solutions personnalisées et flexibles
La personnalisation des solutions est le maître mot des fabricants pour proposer des offres personnalisées et adaptées au cahier des charges et aux applications du client. D’où des catalogues de plusieurs centaines de références pour correspondre aux besoins du client dans un délai souvent court et répondre à différentes normes et contraintes du site. Différentes dimensions sont ainsi proposées, avec des hauteurs de 24, 42 ou 48 U, des largeurs de 600 à 800 mm et des profondeurs allant de 600 à 1 200 mm pour s’adapter aux différents standards d’équipements (serveurs, onduleurs, batteries, climatiseurs, PDU…). Ces baies devront aussi pouvoir s’adapter, avec des solutions et accessoires spécialisés, à tous les types de câblage d’alimentation et de données, le nombre de câbles en fibre ou en cuivre ne cessant d’augmenter. Ainsi, des armoires de profondeur 1 070 à 1 200 mm permettent de réserver plus d’espace pour les câblages et l’alimentation des serveurs. Dans bien des cas, ces baies vont pouvoir s’assembler pour former des systèmes de confinement en allées froides ou chaudes, ce qui permettra de contrôler parfaitement les flux d’air de refroidissement. Le principe étant alors de climatiser les baies, mais pas la salle, pour répondre aux besoins de salles dotées de baies à haute densité et diminuer fortement la puissance frigorifique nécessaire, tout en gardant une flexibilité d’aménagement. Si les extrémités des allées froides ou chaudes sont fermées, on parle alors de confinement partiel ou total, ce qui permet de gagner encore en efficacité énergétique. Une telle solution a également l’avantage de réduire fortement la surface de la salle informatique.

Centre informatique de DATA4.

La remise à niveau des sites anciens est aussi un marché important pour François Prez, Country Manager Legrand Data Center Solutions, « car beaucoup de sites ne sont pas au niveau technologique, en particulier concernant les économies d’énergie. Pour des rénovations de ces sites, nous installons des couloirs froids ou chauds dans le cadre d’une démarche d’amélioration du PUE (indicateur d’efficacité énergétique). Nous collaborons avec des bureaux d’études qui valident alors la durée du retour sur investissement du confinement ».

Les besoins en flexibilité augmentent eux aussi. « Dans les grands datacenters, ce besoin est motivé par la gamme d’applications prises en charge, en particulier dans les environnements de colocation. Les opérateurs de datacenters segmentent souvent les zones à haute densité, ce qui a un impact sur le refroidissement des baies individuelles, ainsi que sur le confinement et la gestion des flux d’air entre les zones. En matière d’Edge Computing, la flexibilité est favorisée par le nombre élevé de sites distribués et distants, avec un large panel de situations locales et de besoins en support applicatif. Dans les deux cas (grands datacenters et Edge), le besoin constant de mise à niveau avec un impact minimal sur l’exploitation est en très forte croissance. Ceci est rendu possible par des configurations de solutions modulaires et un micrologiciel de gestion évolutif, » explique Séverine Hanauer, Data Center & Telecom Sales Director et Consulting & Solutions Director de Vertiv France.

Salle de serveurs d’un datacenter.

Car la modularité est bien le nerf de la guerre pour François Prez : « Les investissements sont lourds, les technologies avancent très vite, en un an ou deux. Le cabling doit pouvoir évoluer rapidement sinon le datacenter ne sera plus au niveau du marché. En ce qui concerne les baies le client s’attend à pouvoir faire des modifications et des remplacements à chaud, sans coupure. »

Des solutions pour l’Edge Computing et ses datacenters de proximité
L’offre des constructeurs s’adapte aussi à l’évolution du marché avec le développement de l’Edge Computing et des petits datacenters de proximité. En effet, pour Hichem Menjel, Product Manager d’Efirack, « “Proximité” est le nouveau terme à la mode dans le monde des datacenters. La tendance est en effet au datacenter de proximité, portée par les technologies comme l’IoT, qui imposent le traitement et le stockage d’une grande quantité de données. Collecter les données brutes au plus près des serveurs permet effectivement de réduire le temps de latence et de bénéficier d’une plus grande rapidité d’accès. Les petits datacenters en régions connaissent une forte croissance car ils répondent à ces nouveaux usages. Cette recherche de proximité et d’agilité se retrouve au sein du datacenter lui-même, au niveau des lots techniques sensibles dont le plus stratégique et énergivore : le lot climatisation qui, à lui seul, représente plus de 40 % de la consommation du datacenter ».

Ces centres de données micromodulaires vont se développer, car selon les estimations de Gartner, « environ 10 % des données générées par l’entreprise sont créées et traitées en dehors d’un centre de données centralisé traditionnel ou d’un cloud ». La société de conseil prévoit que ce chiffre atteindra 50 % en 2022.

Vérouillage de sécurité d’une baie de serveurs.

Pour répondre à ce besoin, 3 constructeurs de rang mondial (ABB, HPE (Hewlett Packard Enterprise) & Rittal) se sont associés pour développer le Secure Edge Data Center (SEDC). Didier Payelleville, responsable du segment Datacenters d’ABB France, explique que « le SEDC est livré sous forme de solution clés en main intégrée et testée en usine, équipé avec une infrastructure préconfigurée, en armoire IP55 protégeant de l’humidité et de la poussière, avec refroidissement intégré et extinction d’incendie de Rittal. ABB fournit l’alimentation secourue via les UPS intégrés dans le SEDC ainsi que les protections électriques internes via son système Smissline. Il a été spécifiquement conçu pour les environnements industriels et apporte une solution “plug and play” pour les petites et moyennes infrastructures IT. Le SEDC est doté de plateformes hybrides telles que HPE ProLiant pour Microsoft Azure, ce qui permet aux clients de développer des applications compatibles Azure sur l’infrastructure HPE du SEDC ». Et pour Didier Payelleville, il est important de rappeler que les « données Intelligentes ont besoin de puissance intelligente» (Intelligent Data need Intelligent Power) incluant de ce fait toutes les solutions et les équipements électriques alliant la sécurité des matériels et des hommes, la minimisation des surfaces, l’évolutivité et la modularité, tout en diminuant drastiquement le TCO (Total Cost of Ownership). « Car pour répondre aux directives données récemment par le gouvernement français sur les besoins d’économie d’énergie, tous les acteurs des datacenters se sont engagés à réduire de 15 % leur consommation. » Pour les aider à réaliser cet objectif, ABB propose des solutions d’électrification, d’automatisation et de systèmes intégrés conçus pour les applications les plus exigeantes. Des solutions présentées notamment sur son stand et sur le Live Green du DCW 2018.

 

La densité continue d’augmenter dans les baies
La densité continue d’augmenter dans les grands datacenters, aussi bien que dans les centres informatiques de proximité. Mais, confirme Séverine Hanauer, « les nouvelles conceptions de grands datacenters permettent des densités supérieures à 50 kW par rack, tandis qu’en Edge, certaines installations peuvent atteindre 30 kW par rack. Les densités élevées peuvent ainsi nécessiter des PDU dans les baies en triphasé jusqu’à 63 ampères et impliquent alors généralement l’utilisation de systèmes de refroidissement supplémentaires tels que des échangeurs thermiques à porte arrière ou des climatiseurs dédiés intégrés sur le côté, qui assurent un refroidissement directement ciblé sur la charge thermique. Les petites infrastructures de proximité situées à l’intérieur de bâtiments commerciaux ou industriels peuvent encore être bien en deçà de 10 kW par rack, mais nécessitent un refroidissement dédié et plus concentré que par le passé, la simple aération générale du bâtiment n’étant plus suffisante ».

Baies avec confinement des allées de refroidissement.

Cette haute densité, pour François Prez, « progresse, avec des applications comme les supercalculateurs, mais aussi avec la virtualisation qui est adoptée par de plus en plus de clients lors de la rénovation de salles, avec une forte diminution des surfaces occupées. Il faut ensuite leur proposer les meilleures solutions pour gérer les flux d’air et les alimentations électriques avec des alimentations par câbles ou gaines à barres par le haut ou en faux plancher ».

Jérôme Totel, vice-président Sales Engineering & Product Development du groupe Data4, qui opère 15 datacenters en Europe dans des infrastructures sécurisées et respectueuses de l’environnement, le confirme : « Les clients ont tendance à densifier de plus en plus, en particulier ceux qui traitent des animations 3D avec 15 à 20 kW par baie. Mais c’est aussi parce que dans un rack on met de plus en plus de serveurs plus petits, mais consommant plus d’énergie. Les “cloud providers” ou les sociétés de l’IT qui offrent des services managés densifient énormément. Grâce au confinement, on refroidit mieux des baies de 15/20 kW. Pour refroidir de telles baies et éviter les points chauds de manière très précise, Data4 a breveté un plafond diffusant. Mais le point important est de permettre aux clients de voir les points chauds et les consommations de chaque baie. » Et c’est sur ce point que l’apport des solutions DCIM (Data Center Infrastructure Management) sera décisif pour permettre au client de réagir et d’éviter les problèmes de fiabilité.

Des solutions DCIM adaptées à tous les datacenters, petits ou grands, neufs ou en rénovation
Le DCIM est l’outil qui permettra de gérer au mieux les ressources, les changements, les mouvements de matériels. Il est aussi une brique importante dans la gestion de la disponibilité et du rendement énergétique.
Quand il s’agit d’optimisation et de disponibilité, pour peu que les infrastructures informatiques exploitées soient critiques, il est important d’avoir une vision globale et des outils de gestion des infrastructures et ressources. Cela permet notamment de générer des tableaux de bord pour les clients. Les dernières versions de DCIM offrent de nouvelles fonctionnalités, avec des solutions modulaires pour s’adapter à tous les types de datacenter, contextes et niveaux de maturité de l’exploitant des salles. L’objectif est d’utiliser au mieux les capacités de l’infrastructure sans rien sacrifier aux exigences de disponibilité en optimisant le placement des équipements dans les baies. Au niveau de ces baies, une solution DCIM adaptée à la gestion thermique va permettre de surveiller chaque rack, de comparer le profil de température à la charge thermique et de surveiller, avec des seuils d’alarmes définis, la température des périphériques critiques.

Des alimentations qui doivent aussi être flexibles
Le besoin de flexibilité va également concerner le raccordement électrique des baies sous le faux plancher ou par voie aérienne. Pour des installations de puissance, le raccordement se fait par câbles ou par gaines à barres. Cette dernière solution pour des courants de 100 à plus de 1 000 A présente, pour Thierry Gougeot, Regional Sales Manager d’UEC-Starline, de nombreux avantages : « Borniers de raccordement à chaud à n’importe quel endroit de la gaine, flexibilité des configurations, rapidité d’installation (environ 5 fois plus rapide que des câbles), sans déclassement jusqu’à 55 °C. Les gaines à barres répondent tout à fait aux besoins d’évolution et de flexibilité d’une salle. » Des soucis que l’on retrouve bien au cœur des préoccupations de tous les exploitants et clients des salles informatiques, comme le confirme Jérôme Totel avec l’expérience de Data4.

Jean-Paul Beaudet

 


AVIS D’EXPERT
Hichem Menjel, chef de Marché d’Efirack

Hichem Menjel

Refroidissement de proximité, ou comment adapter la production de froid à la surface et à la densité des équipements installés ?

Le bon dimensionnement
Nous avons quitté l’ère du surdimensionnement de l’approvisionnement électrique et du refroidissement. Cette approche n’est plus du tout en phase avec les nouveaux besoins en énergie dans les datacenters. La quête de l’efficience énergétique « absolue » est donc en marche.

Pour améliorer l’efficacité du refroidissement, le Code of Conduct recommande, entre autres, de dimensionner l’alimentation électrique en fonction de la configuration installée et de canaliser les flux d’air pour éviter le mélange entre l’air chaud extrait et l’air froid soufflé.

Le choix d’une technologie de refroidissement la plus adaptée à la surface, densité et configuration de la salle est également une étape essentielle, car elle conditionne l’efficience, la consommation et donc le retour sur investissement. C’est une phase délicate, car il faut maîtriser l’urbanisation d’une salle et être capable d’évaluer l’évolution de sa charge : les besoins immédiats et à X années.

Datacenter « on demand »
Pour les réfractaires au tout externalisé, l’idéal est de pouvoir planifier le développement de son datacenter de manière modulaire afin d’optimiser son taux de remplissage, son PUE et, à terme, son ERE (Energy Reuse Effectiveness). Cela permet de gagner en efficacité énergétique tout en activant des technologies de refroidissement et de distribution électrique en adéquation avec l’évolution des équipements IT (nombre et types de serveurs de dernière génération…). Certains opérateurs prévoient des réserves foncières en activant des espaces selon les besoins. Développement d’îlots avec confinement d’allées chaudes ou froides mis en service selon les besoins…

Refroidissement « on demand »
Plusieurs pistes d’optimisations sont possibles :
 + Favoriser le refroidissement partiel d’une salle serveur lorsque celle-ci n’est que peu remplie.
 + Adapter son mode de refroidissement en salle au travers de matériels adaptés :
o CRAC Unit : approche volumétrique globale ne permettant pas de canaliser l’air au plus près de la baie. Complexité du traitement des points chauds.
o In Row : refroidissement de proximité permettant une optimisation du flux d’air, une amélioration du rendement des unités de refroidissement ainsi qu’un gain de place significatif.
o In Rack : niveau ultime de refroidissement avant l’injection de média frigorifique au sein du CPU (ou l’immersion de l’IT). Ce mode permet de concentrer l’apport de frigories au plus proche de l’IT. Les matériels actuels nous permettent d’accueillir aisément de la haute densité (HD), voire très haute densité (THD) grâce à des performances allant jusqu’à 160 kWf/m².
 + Complémentairement, d’autres solutions techniques sont possibles telles que la canalisation des flux d’air en allée froide ou chaude afin d’éviter les bypass d’air et d’optimiser le rendement des équipements de refroidissement.


« Intelligent data needs intelligent power »

Didier Payelleville

ABB met en avant ses offres connectées pour l’alimentation des datacenters sur le salon Data Centre World

ABB, acteur majeur du monde de l’Industrie, est présent mondialement sur le marché des datacenters. Ses solutions de distribution d’énergie au sein du datacenter couvrent l’ensemble des besoins, depuis les transformateurs RTE à l’alimentation des baies, en passant par le TGBT (tableau général basse tension), les onduleurs, le TGHQ (tableau général haute qualité) et la distribution électrique de puissance. Dans le cadre de son programme de développement de solutions digitales ABB Ability, le fabricant intègre à ses produits traditionnels des modules digitaux. Ce virage digital opéré par ABB dans le datacenter vise à réduire les consommations énergétiques des centres de données, comme le prévoit le gouvernement : les hébergeurs et gestionnaires de datacenters doivent dans ce cadre réduire de 15 % leurs consommations d’énergie, en échange de l’allègement des taxes pour ces acteurs. Il est donc aujourd’hui essentiel pour les grands hébergeurs de travailler à réduire leur PUE. C’est pour ces raisons qu’ABB a adapté son offre industrielle aux datacenters, en intégrant à ses solutions la gestion et la maintenance du cooling, de l’IT et de la distribution d’énergie, en alliant en même temps la sécurité, la minimisation des surfaces, l’évolutivité, le tout en diminuant drastiquement le TCO (Total Cost Owner). En plus de la gestion des équipements, les solutions d’alimentation industrielles d’ABB permettent de sécuriser l’architecture électrique et les équipements, en protégeant les hommes et le matériel contre les dangers des arcs électriques par exemple. Ces solutions répondent aux besoins des gestionnaires de datacenters et permettent, en cas d’avarie ou de coupure, de redémarrer l’installation très rapidement.

Filière 3e: