Entre la digitalisation de l’économie, le développement de l’intelligence artificielle (IA) et l’impératif de sobriété énergétique, le marché du datacenter fait face aux injonctions contradictoires. Si le développement de l’IA, qui en est encore à ses balbutiements, focalise l’attention du marché, l’augmentation structurelle des volumes de données traités par les datacenters est une réalité. L’augmentation du marché est évaluée à plus de 13 % par an pour les 10 prochaines années. Olivier Micheli, président de France Datacenter et président de Data4 et Hélène Macela-Gouin, présidente du comité Data Centers du GIMELEC et vice-présidente de l’activité Secure Power de Schneider Electric, reviennent sur l’attractivité du marché français des datacenters, l’impact de l’IA sur les centres de données, l’amélioration de la performance énergétique et les évolutions du marché dans les années à venir.
Comment se porte le marché français du datacenter ?
Olivier Micheli – La dynamique du marché des datacenters est extrêmement puissante. Le marché croît de plus de 20 % par an. Cela n’est pas surprenant puisque le stockage des données est désormais le grand enjeu de notre siècle. Qui peut se targuer aujourd’hui de pouvoir vivre sans smartphone, sans ordinateur ? Tous nos services se digitalisent, y compris les services essentiels comme ceux du secteur de la santé, de la défense ou le secteur bancaire. Pour le bon fonctionnement de ces services et leur continuité, il est essentiel que le marché des datacenters poursuive son développement.
Hélène Macela-Gouin – Effectivement, le marché est dynamique et en pleine transformation. En 2022, nous comptions environ 250 datacenters. Le consensus estime l’augmentation à plus de 13 % par an pour les 10 prochaines années, avec une filière qui prévoit d’investir 12 milliards d’euros. Mais les prévisions sous-estiment peut-être l’accélération, tant l’intelligence artificielle vient balayer les scénarios de constructions de nouveaux datacenters par ses besoins de capacité de calcul et de stockage. Pourtant, à court terme, cette même intelligence artificielle fait évoluer les architectures et crée un certain attentisme sur le marché. Cet attentisme est parfois amplifié par les délais de permis de construire et de connexion au réseau électrique. Bref, beaucoup de potentiel, et quelques difficultés !
Quelle est la dynamique concernant l’attractivité de la France ? Est-elle toujours aussi forte ?
Hélène Macela-Gouin – Il ne me semble pas que l’attractivité de la France ait été particulièrement forte dans le passé, quand nous analysons la taille de la base installée en France par rapport à d’autres pays comme l’Allemagne, l’Angleterre ou les pays nordiques. Nous voyons d’autres marchés être très dynamiques aujourd’hui, comme l’Espagne ou l’Italie. Cependant, la France a un atout considérable : son électricité très largement décarbonée et de nouveau abondante. Ce facteur va attirer de nombreux acteurs dans les années à venir. Le deuxième facteur d’attractivité est lié à la connectivité : après les places historiques « FLAP » Francfort, Londres, Amsterdam et Paris, Marseille est devenue le cinquième hub mondial du trafic internet, du fait de sa situation géographique. D’ici à 2030, une trentaine de câbles devraient y être connectés.
Olivier Micheli – En France, le marché est certes dynamique, mais le nombre de datacenters est encore insuffisant par rapport à la demande. Notre territoire a de nombreux atouts, des hubs de connectivité très forts comme Paris, ou Marseille et ses nombreux câbles sous-marins. Or, les procédures pour construire un datacenter sont encore très longues et fastidieuses, et des efforts restent à réaliser pour simplifier leur installation.
Pouvez-vous faire le parallèle avec les autres grandes places européennes ?
Olivier Micheli – Paris fait partie des fameux « FLAP » convoités par les opérateurs. La France est donc idéalement placée dans la cartographie des réseaux internet européens, grâce notamment à une énergie peu chère et décarbonée et à la maturité de ses infrastructures télécoms. Marseille devient aussi un hub de la connectivité avec l’arrivée de câbles sous-marins. Néanmoins, d’autres métropoles commencent également à sortir du lot, avec des marchés émergents en Italie (Milan), en Espagne (Madrid) ou encore en Grèce (Athènes) où nous venons d’annoncer un nouveau campus.
Hélène Macela-Gouin – Je pense que dans les 3 à 5 années à venir, nous avons une belle place à prendre grâce aux atouts cités précédemment. Nous avons une filière solide entre les fournisseurs, les contractants généraux, les bureaux d’études pour accélérer dans le domaine.
Comment le développement de l’IA va impacter – ou impacte déjà – le marché des datacenters ?
Olivier Micheli – L’essor de l’IA ne pourra se faire sans datacenter. Les technologies d’intelligence artificielle impliquent de stocker un très grand volume de données et d’avoir des datacenters conçus pour et avec de l’intelligence artificielle. D’ici 2030, il est estimé qu’entre 30 à 40 % des datacenters seront destinées à l’IA en France, (20 à 25 % en Europe). Cela aura également un impact significatif sur la conception de nos bâtiments, qui seront de plus en plus denses. Nous densifions au maximum pour être capables d’ajouter des mégawatts sans ajouter de surface au sol. Les campus du futur seront donc plus puissants et plus efficients. D’après le cabinet McKinsey, près de la moitié de la diminution des émissions des GES à réaliser d’ici 2050 pourrait l’être grâce au cloud et à l’IA. D’où la nécessité, là encore, de simplifier le développement en France de datacenters, pour être en capacité de faire de notre pays un champion de l’intelligence artificielle.
Hélène Macela-Gouin – Nous en sommes au tout début, et nous imaginons aujourd’hui ce développement de l’intelligence artificielle qui va transformer notre façon de vivre, de travailler et d’interagir avec la technologie. L’IA générative (par exemple, ChatGPT) est un catalyseur de cette croissance. L’IA produit et brasse une quantité importante de données, qui sont à l’origine de nouvelles technologies de microprocesseurs et de serveurs, résultant des hautes densités de puissance de racks. Ce développement pose de nouvelles questions en matière de conception et d’exploitation des datacenters. D’abord, cela implique plus d’équipements IT dans moins d’espace. En effet, le développement de l’IA crée une disruption dans les architectures et dans la taille moyenne d’un datacenter. Sur les architectures, alors qu’on consommait entre 3 et 5 KW pour chaque baie, on parle désormais de 30, 50 voire 100 kW à la baie. La taille du datacenter passera de 10 MW par phase, à 100 MW par phase avec tout ce que cela comporte en termes de besoin d’approvisionnement en énergie et en équipements. Ensuite, la densification des serveurs oblige à passer du refroidissement par air au refroidissement liquide : il faut désormais refroidir les serveurs directement au niveau de la baie, avec ce que nous appelons du « liquid cooling ».
Quelle est la tendance pour les années à venir ?
Hélène Macela-Gouin – Au niveau mondial, nous estimons que l’IA représente aujourd’hui 4,3 GW de besoin en électricité et potentiellement 20 GW d’ici 2028. Nous en sommes au démarrage, donc il faut prendre ses prévisions avec beaucoup de précautions. Il est important de noter que les opérateurs de datacenters, ainsi que l’ensemble des entreprises qui vont l’utiliser, peuvent tirer profit de l’IA pour trouver des opportunités de gains d’efficacité énergétique et de décarbonisation. En utilisant les données de manière plus efficace, nous pouvons encourager des comportements nouveaux et plus durables. Par exemple, Equinix a amélioré de 9 % l’efficacité énergétique de son datacenter grâce au refroidissement basé sur l’IA, ce qui lui a permis de réduire la consommation d’énergie des systèmes de refroidissement en les régulant plus efficacement et en rendant le système plus efficace. Au-delà de l’IA, Il faut garder à l’esprit que la majorité de la croissance du parc mondial de datacenters sera là pour répondre à un besoin en installations « classiques ».
Olivier Micheli – Pour le secteur, deux défis majeurs nous attendent. Le premier consiste à rendre nos infrastructures les plus autonomes possibles sur le plan énergétique. C’est pourquoi Data4 s’est engagé dans différents partenariats pour développer des projets innovants. L’année dernière par exemple, nous avons lancé en collaboration avec la Fondation Université Paris- Saclay un projet de datacenter « biocirculaire » pour réutiliser la chaleur de nos infrastructures et créer de nouvelles sources d’énergie durable. Le second grand défi sera celui de l’acceptabilité. Nous le voyons d’ores et déjà en France, dans certaines villes, la grogne monte contre les datacenters. Chaque opérateur a le devoir d’évangéliser sur la nécessité d’implanter des datacenters sur notre territoire, et de lutter contre les idées reçues. Chez Data4, nous travaillons main dans la main avec les collectivités pour expliquer en quoi consiste un datacenter et le réel impact sur le territoire : nous créons des emplois, soutenons des entreprises et start-up locales et favorisons un dialogue de proximité.
Lors de la formation du gouvernement, le premier ministre a nommé Clara Chappaz au poste de secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, auprès du ministre de l’Enseignement supérieur et de la Recherche. Quelles sont vos réactions à cette nomination ?
Olivier Micheli – De par son expérience à la tête de la French Tech, Clara Chappaz est une sachante, qui connaît parfaitement le secteur. Sa nomination est une excellente chose et je ne doute pas qu’elle aura à cœur de garantir les intérêts de la filière, car nos infrastructures sont les piliers de notre vie numérique à tous. C’est pourquoi notre souhait reste inchangé : nous plaidons pour une simplification administrative pour accélérer la mise en place de nos infrastructures. Aujourd’hui, plus un projet est important plus la procédure prend du temps. Il faut permettre aux centres de données de s’installer en adéquation avec les besoins de l’économie numérique et les prérequis technologiques, environnementaux et énergétiques. L’accès au foncier, le fardeau administratif et l’approvisionnement en énergie décarbonée sont encore des freins. Le projet de loi de simplification de la vie économique partait dans la bonne direction. J’espère que cette nomination permettra de le relancer, car il proposait d’instaurer une mesure permettant aux campus de datacenters de bénéficier du statut de « projet d’intérêt national majeur ». Ce statut permettra de faire un bond en avant et de rappeler que sans datacenters, pas de services numériques, et encore moins d’intelligence artificielle.
La précédente secrétaire d’État au numérique, Marina Ferrari, dépendait de Bercy. Que signifie, selon vous, ce changement de ministère de tutelle ?
Olivier Micheli – Pour que la France réalise ses ambitions en matière d’IA, elle doit se préparer à former ses jeunes talents… et à les garder ! Nos ingénieurs sont parmi les meilleurs au monde, nous devons leur prouver que de belles entreprises les attendent, pas uniquement aux États-Unis, mais bien sur notre territoire. Chez Data4, nous avons fait de la sensibilisation des jeunes talents une priorité. Chaque année, nous ouvrons même nos portes à une centaine d’étudiants, collégiens ou lycéens pour démystifier notre industrie et leur présenter les emplois de notre secteur.
Comment conjuguer réduction des consommations des datacenters et augmentation des puissances liée à l’arrivée de l’IA ?
Hélène Macela-Gouin – C’est un sujet qui a été pris au sérieux dès les premières constructions par toute la filière : déjà, parce que la consommation électrique représente entre 20 et 40 % des charges opérationnelles d’un datacenter, donc autant dire que la rentabilité d’un datacenter passe par l’optimisation de sa consommation électrique. Dans les datacenters, nous parlons de PUE (Power Usage Effectiveness). Nous travaillons à plusieurs niveaux : au niveau de chaque équipement en innovant, pour que les pertes soient les plus faibles possibles (par exemple, un onduleur peut être efficace à 99 % au lieu de 94 %), au niveau de l’architecture du datacenter, puis en phase opérationnelle au niveau de la GTB : par exemple, la température dans les pièces est un facteur important ; 1 degré de plus, c’est en gros 7 % de consommation énergétique en moins.
Une autre façon de faire face aux demandes croissantes de l’IA est d’utiliser la technologie à notre avantage. Les centres de données peuvent tirer profit de l’automatisation, de l’analyse des données et du machine learning alimentés par l’IA pour trouver des opportunités de gains d’efficacité et de décarbonation… Dans les faits, la consommation électrique des datacenters va augmenter dans les années à venir (d’où l’importance d’une électricité décarbonée), mais elle n’a jamais été et ne sera pas linéaire avec l’augmentation du parc installé.
Olivier Micheli – L’IA va en effet accroître le volume de données et la consommation d’énergie mais permettra aussi de gagner en efficacité énergétique, d’anticiper certaines opérations de maintenance, d’améliorer la prise de décision et plus encore. L’IA pourra par exemple permettre d’identifier des opportunités d’optimisation énergétique ou de proposer des actions correctives pour améliorer la performance énergétique.
Quels sont les points d’attention particuliers et les bonnes pratiques pour concevoir un datacenter performant ?
Olivier Micheli – Trois éléments sont essentiels : le foncier et donc l’accès au terrain, l’électricité et une solution de refroidissement. Chez Data4, nous veillons à ce que ces trois éléments soient adoptés dans le respect d’une démarche durable. Pour le foncier, nous privilégions toujours la zéro artificialisation et la récupération de friches industrielles, de bâtiments en fin de vie. C’est d’ailleurs le cas pour notre prochain campus en région parisienne, à Nozay. Pour l’électricité, nous soutenons le développement d’énergies renouvelables grâce notamment à la signature de PPA (Power Purchase Agreements). Enfin, pour ce qui est du refroidissement, nous adaptons le design de nos datacenters au liquid cooling, une technique que nous avons déjà mise en œuvre en partenariat avec OVHcloud et qui permet de passer du refroidissement à l’air au refroidissement à l’eau, grâce à de nouvelles technologies qui nous feront gagner en performance. Cette technique permet aussi de faire baisser la facture énergétique, avec un gain de l’ordre de 25 % sur la consommation électrique par rapport au refroidissement à air classique. Et tout cela sans impliquer une hausse de la consommation en eau dans les datacenters puisque nous avons recours à des circuits fermés où l’eau tourne en boucle et est réutilisée.
Hélène Macela-Gouin – Un datacenter performant est un datacenter qui sait allier performance énergétique, évolutivité et durabilité. Avec l’essor des nouvelles technologies, il est indispensable de concevoir une architecture qui peut évoluer dans le temps, par exemple, l’intégration des solutions de liquid cooling. La durabilité est également un élément majeur : une méthodologie et de nouveaux indicateurs ont été mis en place pour accompagner la filière des datacenters aux défis de demain. Outre le Power Usage Effectiveness, il faut mesurer l’ERE – Energy Reuse Effectiveness : efficacité de la récupération de la chaleur fatale –, l’empreinte carbone, l’usage de l’eau, la gestion des déchets et l’impact sur la biodiversité. On va parler de plus en plus de l’ACV (Analyse du cycle de vie), en intégrant des équipements plus faibles en empreinte carbone, en consommation, et jusqu’à des équipements issus de l’économie circulaire.
L’augmentation des températures extérieures oblige les datacenters à développer une résilience particulière pour éviter les surconsommations. Comment créer des datacenters résilients ?
Hélène Macela-Gouin – La question peut effectivement se poser pour les anciens datacenters. Pour les nouveaux, qui constitueront l’essentiel du parc, leur conception prend déjà en compte l’évolution du climat. Les équipements de refroidissement bénéficient par ailleurs toujours d’innovations technologiques : au-delà du liquid cooling qui permet de faire beaucoup plus de free cooling et de l’IA qui permet d’optimiser l’exploitation, les nouveaux fluides frigorigènes et les nouvelles technologies de compresseurs sont également des leviers d’optimisation.
Les datacenters anciens, notamment ceux datant des années 2000 et dont les PUE sont supérieurs à 2 ou 2,5, font-ils l’objet d’une politique de rénovation ?
Hélène Macela-Gouin – C’est un sujet majeur, et en fait, c’est exactement comme dans le bâtiment où les bâtiments neufs ont des normes ultra-performantes, mais en réalité 90 % du parc est ancien ! La rénovation des anciens datacenters est souvent poussée par le niveau de consommation énergétique et les ambitions des entreprises à consommer moins.
Olivier Micheli – Nous nous sommes engagés à remplacer progressivement le matériel utilisé par des solutions ayant un impact réduit sur l’environnement. Avec, entre autres, des technologies de refroidissement plus efficientes ou la mise en place de solutions d’IA pour optimiser la consommation énergétique. L’ensemble de ces efforts nous a déjà permis de réduire de 20 % notre PUE sur les dix dernières années.
Quels sont les principaux axes de travail pour aller plus loin dans la réduction des consommations énergétiques des datacenters en France ?
Olivier Micheli – Chez Data4, toutes nos actions menées se font dès la conception des datacenters avec une analyse du cycle de vie systématique pour avoir une idée précise de ce que nos bâtiments vont consommer, sur l’ensemble de la durée de vie d’un datacenter, de sa construction à sa fin de vie. Chaque étape est regardée avec attention. Cela nous a permis de comprendre que la construction, et notamment le béton, représentait une part importante, et d’agir en conséquence en collaborant avec un fournisseur spécialiste du béton bas carbone, par exemple. L’ensemble de nos actions a mené à une réduction de 13 % de nos émissions de gaz à effet de serre par mégawatt, relatifs à la construction de nos datacenters.
Hélène Macela-Gouin – Côté infrastructures énergétiques, même si les équipements sont déjà extrêmement performants l’innovation continue, que ce soit du côté des onduleurs, du cooling ou des outils d’IA pour améliorer l’exploitation globale. Ces nouveaux équipements vont parfois à rebours de certaines anciennes habitudes et il appartient à l’écosystème d’accélérer leur déploiement : nous y travaillons par exemple via la création de fiches CEE dédiées. L’autre sujet qui monte est la place du datacenter dans son écosystème énergétique, par exemple la réutilisation de la chaleur fatale. Les pouvoirs publics doivent aller au-delà d’un simple empilement des réglementations, ils doivent également impulser une réelle dynamique de dialogue pour diffuser les meilleures pratiques, comme l’y encourage d’ailleurs la nouvelle directive européenne relative à l’efficacité énergétique.
Pouvez-vous nous dire un mot sur le concours Cube Datacenter, dont la deuxième édition s’est clôturée récemment. Quels sont les enseignements de cette nouvelle édition ?
Hélène Macela-Gouin – Il y a deux enseignements principaux, il me semble : le premier, c’est que de nombreux datacenters sont des rôles modèles en termes d’efficacité énergétique pour les raisons évoquées plus haut. Le deuxième, c’est qu’ils sont prêts à contribuer aux évolutions des besoins du réseau électrique de demain.
Le datacenter, classé parmi les électro-intensifs, nécessite à tout moment d’importantes quantités d’énergie pour fonctionner. Au-delà des consommations, quels sont les leviers pour faire du datacenter un vecteur de flexibilité pour le réseau électrique ?
Hélène Macela-Gouin – Sur ce sujet, le GIMELEC a sorti en novembre un livre blanc sur le potentiel de flexibilité des datacenters en France. Le datacenter a besoin d’un approvisionnement continu et donc d’alimentation électrique sans interruption. C’est de fait un sujet sensible. Pour autant, il peut aussi être un vecteur de flexibilité pour le système électrique, si son mode de fonctionnement est compris. Il y a de nombreuses sources potentielles de flexibilité, plus ou moins activables en fonction des situations : stockage stationnaire des batteries, groupes électrogènes de secours, systèmes de refroidissement, pilotage des installations, décalage temporel, transfert géographique. Les gains potentiels sont loin d’être négligeables : plus de consommations d’énergies renouvelables, prix de l’électricité en baisse, réduction des coûts et délais de raccordement au réseau électrique. N’hésitez pas à consulter cette étude !
L’intégration de sources d’énergies renouvelables peut-elle être pertinente ? À quelles conditions ?
Olivier Micheli – Pour fournir une énergie décarbonée à nos clients, nous avons signé l’année dernière deux contrats appelés Power Purchase Agreements (PPA) avec deux entreprises françaises leaders du solaire et de l’éolien. Ce genre de pratique est de plus en plus commune dans le secteur car elle permet aux opérateurs de s’approvisionner en énergie renouvelable avec une empreinte carbone mieux maîtrisée pour leurs clients.
La question des compétences est centrale pour le développement de la filière datacenter. Quelles stratégies met en œuvre la filière datacenter pour attirer de nouveaux profils ?
Olivier Micheli – Nous avons développé un programme baptisé « Data4 Academy » qui permet d’ouvrir les portes de nos datacenters. En offrant à des étudiants une vision d’ensemble de l’écosystème technique qui héberge l’IA, Data4 entend non seulement atténuer la perception élitiste des métiers du numérique, mais aussi faire comprendre aux futurs professionnels que les datacenters occupent non seulement une place essentielle au sein de leur territoire, mais qu’ils représentent également un vivier d’emplois présents et futurs. L’ensemble des acteurs l’a bien compris, et l’année dernière, Data4 a pu se joindre à une journée de « job dating » organisé par France Datacenter, l’association de la filière.
Comment va évoluer le marché dans les années à venir ?
Hélène Macela-Gouin – En France, la croissance est estimée à 13 % par an sur les 10 prochaines années, avec une estimation de 1,7 GW sur 2033. Le marché du datacenter prévoit d’investir 12 milliards d’euros sur les 10 prochaines années. Face aux demandes croissantes de nouveaux datacenters et à l’accélération de l’IA, la filière doit faire face aux enjeux de performance énergétique et de développement durable, tout en apportant des solutions innovantes.
Propos recueillis par Alexandre Arène