CEME, groupe spécialisé dans les métiers de l’électricité, de la CVC et de la maintenance, construit depuis 25 ans des datacenters pour des opérateurs et des hébergeurs. Le groupe, qui compte parmi les membres actifs de la commission « Efficacité énergétique » du SERCE, propose à ses clients des solutions clés en main, avec pour prisme l’optimisation des consommations énergétiques.
Luc Da Silva revient sur les enjeux de performance énergétique des datacenters à l’heure du développement de l’intelligence artificielle.
Quels sont les enjeux de performance énergétique des datacenters ?
L. D. S. – Du côté des exploitants, l’énergie représente le plus gros poste dans les charges fonctionnelles d’un datacenter. Ils doivent aussi faire face à de nouvelles demandes liées à la réduction de leur empreinte environnementale. La puissance des datacenters a augmenté, passant de 10 MW à plus de 100 MW aujourd’hui pour certains. La performance énergétique des datacenters est un sujet majeur. Toute la filière fournit des efforts importants, qui se confirment avec la réduction significative du PUE. Cet indicateur était de plus de 1,5 il y a quelques années et il est de 1,25 aujourd’hui. Les clients finaux souhaitent être hébergés par des datacenters les plus efficients possibles, d’une part, par prise de conscience des enjeux sociétaux et d’autre part pour des questions de coûts. CEME a conçu l’un des datacenters les plus efficients d’Europe, avec un PUE de 1,15 grâce à la conception d’un process en free cooling total direct. La demande du client date de 2017, ce qui prouve le volontarisme du secteur sur les sujets énergétiques depuis de nombreuses années.
Quels sont les principaux leviers d’action pour réduire les consommations ?
L. D. S. – Le premier levier d’action porte sur l’urbanisation des salles de serveurs, qui consiste à cloisonner des allées chaudes et des allées froides pour apporter le froid uniquement là où il est nécessaire. L’augmentation de la température des salles de serveur, et ce, quelle que soit la nature du site, est le second levier de performance énergétique. Augmenter la température à maintenir en salle réduit le besoin en refroidissement, et améliore considérablement le PUE. Le troisième levier concerne le choix des serveurs, car des progrès significatifs ont été réalisés par les fabricants. Ces derniers fonctionnent désormais à des amplitudes de température et d’hygrométrie en salle plus larges. Ces évolutions permettent de repenser entièrement le refroidissement.
Enfin, d’importants progrès technologiques ont été réalisés sur les solutions de refroidissement, qui sont aujourd’hui bien plus efficaces et variées.
Comment l’inflation du besoin en numérique et le développement de l’IA vont-ils influer sur les consommations globales des datacenters en France ?
L. D. S. – Nous constatons que les demandes pour des datacenters IA sont en croissance exponentielle en France, avec des besoins énergétiques très importants. CEME a conçu et réalisé un datacenter qui héberge actuellement un cluster dédié à l’IA. Cela nous permet de tester en conditions réelles la compatibilité du free cooling avec cet usage. Le résultat est très concluant. Nous constatons dès à présent que les ventilateurs des serveurs GPU sont un élément essentiel pour le bon fonctionnement des systèmes de refroidissement conventionnels par l’air. Cependant, pour les puissances annoncées jusqu’à 120 kW par baies, nous savons que le pouvoir calorifique de l’air sera limité. De nouvelles solutions de refroidissement devront être alors utilisées, comme l’Immersion Cooling, qui consiste à immerger des serveurs dans des huiles végétales, ou le Direct Liquid Cooling, qui amène les boucles d’eau au plus près des équipements informatiques. Avec ces solutions, les acteurs du secteur datacenter sont dès à présent prêts à relever les défis soulevés par le développement de l’IA.
Propos recueillis par Alexandre Arène
Retrouvez l’interview page 24, J3e mai 2024 :