Quel sera l’impact du développement de l’IA sur la filière datacenter ?
Joël Vormus – Lorsqu’on parle de l’IA et de son potentiel de croissance, la première chose qui me vient à l’esprit est l’incertitude : comme l’hydrogène, elle occupe beaucoup l’espace public mais ne s’est pas encore traduite en infrastructure, en tout cas en France. Dans le secteur du datacenter « classique », la croissance avancée est de 11 % par an jusqu’en 2035. Pour l’IA, difficile pour l’instant de se projeter. Par ailleurs, il y a plusieurs types d’IA, qui ne nécessitent pas les mêmes besoins technologiques. Il est important de rappeler que l’intelligence artificielle marche sur deux jambes : le Machine Learning et la restitution de services, à l’image de ChatGPT. Cela entraîne des conséquences géographiques : le Machine Learning est majoritairement concentré sur le territoire américain dans les très grands datacenters, alors que la restitution de services, qui nécessite des temps de réponse courts, doit être positionnée au plus près des clients, souvent dans des datacenters Edge. Les datacenters indispensables au développement du Machine Learning varient en densité de 10 à 200 kW par rack : une puissance gigantesque qui impose des réponses technologiques spécifiques, en particulier pour le refroidissement. Ces nouveaux besoins viennent en contradiction avec celui central de la recherche de modularité des datacenters.
Quels sont les grands enjeux auxquels font face les datacenters ?
J. V. – Il y a tout d’abord les coûts de l’énergie : le datacenter est une industrie électro-intensive. Sa compétitivité dépend donc de sa capacité à économiser l’énergie. Mais un chantier l’attend : celui du mieux consommer, autrement dit sa flexibilité. Auparavant « flat », on sent bien que les offres de fourniture vont évoluer pour refléter les prix de gros qui sont chers le matin et le soir et négatifs pendant l’après-midi une grande partie de l’année : c’est un levier de gain pour le secteur. Côté réseau français, qui fait face à un mur d’électrification des usages, les datacenters sont en concurrence avec d’autres secteurs. Sans flexibilité, difficile pour l’État et RTE de tenir les objectifs d’électrification et de réindustrialisation, tout cela à coûts acceptables. Le datacenter est une industrie qui a la chance d’avoir à sa disposition plusieurs leviers de flexibilité dont elle peut donc tirer plusieurs avantages, que ce soit en termes de coûts ou de raccordement. C’est aussi une opportunité de démontrer à nouveau que le secteur est à l’avant-garde de la décarbonation. Le débat de la flexibilité doit être ouvert, y compris avec les clients comme les GAFAM : nous allons publier un livre blanc en juin à ce sujet.
Quels sont les moyens de freiner les consommations ou du moins d’éviter une explosion ?
J. V. – Au-delà de la performance énergétique, il faut repenser les usages du numérique et apprendre la sobriété. Par exemple, les cryptomonnaies représentent aujourd’hui un tiers de la consommation mondiale des datacenters : quelle est la valeur ajoutée pour l’économie ? L’IA rejoint le grand débat sur les usages du numérique : il y a du bon et du moins bon. Au régulateur de favoriser le grain au détriment de l’ivraie. Mais il ne faut pas oublier une chose : les datacenters sont en grande partie délocalisables. Repousser leur implantation en France ne réglera pas les problématiques environnementales bien au contraire, étant donné notre mix électrique. Et je ne parle pas des problèmes de souveraineté. En réalité, l’IA ne vient que reposer avec acuité les questions que nous nous posons sur le numérique.
Propos recueillis par Alexandre Arène
Retrouvez l’interview à la page 22, J3e mai 2024