SEDC un minidatacenter d'ABB fournissant un environnement de centre de données clé en mains et résilient. (c) ABB
Ces dernières années, le « Cloud » a été un élément essentiel de la transformation numérique des entreprises, celles-ci continuant de migrer leur charge de travail vers le Cloud avec une architecture hybride ou multi-cloud. Mais de nouveaux besoins, de nouvelles applications nécessitent un traitement des données à la périphérie du réseau, là où elles sont générées. Cet Edge Computing se développe très rapidement et nécessite de nouvelles solutions techniques de petits ou micro-datacenters pour tirer parti en toute sécurité des avantages de ce traitement local des données.
Le Cloud Computing ou informatique en nuage est devenu en quelques années l’un des supports principaux des services informatiques d’entreprises qui ont peu à peu transféré leurs datacenters vers des environnements de colocation, de cloud privé hébergé ou de cloud public. Le cloud privé est exploité par une seule entreprise ou hébergé par un prestataire et accessible aux utilisateurs via des réseaux sécurisés. Le cloud public est une structure gérée par un fournisseur tiers à laquelle plusieurs utilisateurs peuvent accéder via Internet. En moins de dix ans, le Cloud est devenu l’un des supports principaux des services informatiques et les entreprises poursuivent l’externalisation de leurs données vers ces solutions de cloud. Aujourd’hui, en France, plus de 55 % des charges de travail sont externalisées. Ainsi, depuis cinq ans, on a assisté au développement d’installations de cloud de plus en plus grandes jusqu’à des sites « Hyperscale » comme ceux des géants du Web (Amazon, Microsoft, Google…). Dans le même temps, toujours plus de données sont générées en périphérie du réseau, nécessitant un traitement de ces données au plus près des équipements et des utilisateurs : c’est l’objectif de l’Edge Computing, une tendance qui s’accélère en raison de nouvelles applications et de nouvelles exigences.
L’essor du Edge Computing porté par l’IoT, l’intelligence artificielle, la 5G ou la 3D Pour ces technologies en fort développement telles que l’IoT, l’IA ou les applications émergentes comme le véhicule autonome ou la réalité virtuelle, il est difficile d’héberger/traiter les données produites en très grande quantité dans des infrastructures centralisées : il faut relocaliser les tâches de calcul ou stockage au plus près des appareils et usagers. « L’Internet des objets et plus généralement l’Internet of Everything (IoE) implique la connexion sans fil de dispositifs, systèmes et services au réseau Internet, de la connexion “Machine to Machine” aux réseaux électriques intelligents en passant par les Smart Cities qui s’approprient ces innovations pour apporter de nouveaux services. Cependant, la masse exponentielle de données générée, compilée aux données créées quotidiennement par les milliards d’humains entraîne de nouveaux enjeux en termes de stockage, de traitement et d’analyse, impactant fortement les infrastructures serveurs et réseau. Dans une usine, pour qu’une machine dialogue avec une autre machine, pas besoin de passer par un datacenter de l’autre côté de l’Atlantique », explique Damien Giroud, directeur France Solutions Datacenter de Schneider Electric.
Des objets connectés qui seront de plus en plus nombreux, comme le confirme Vincent Ouin, Country Manager Legrand Data Center Solutions : « En 2014, environ 14 milliards d’appareils étaient connectés dans le monde. En 2020, il y en aura 50 milliards (source Cisco). Le traitement centralisé des données n’est pas toujours adapté, par exemple en raison des temps de latence. Les applications IoT exigent donc que ces données soient traitées localement en utilisant des micro-datacenters. Tous les acteurs de l’IoT, les pouvoirs publics, la recherche ou encore la finance seront fortement impactés par ces solutions. Fondamentalement, nous pouvons définir deux couches supportant l’IoT : la couche centrale, avec de grandes analyses de données, et la couche décentralisée (proche), avec une analyse rapide. »
Pour Séverine Hanauer, Data Center & Telecom Sales et Consulting & Solutions Director de Vertiv France, l’Edge Computing devient un complément nécessaire du Cloud : « Dans une telle démarche, le système d’information central dans le Cloud reste le référent : les mini-datacenters locaux en deviennent dès lors une extension granulaire, capable de soulager le système central. En matière d’IoT par exemple, l’Edge computing peut recueillir toutes les données et ne transmettre en central que des informations de monitoring à intervalles définis, ou les données notables (pour remonter une alerte par exemple). Ce qui, de fait, limite la circulation de données sur les réseaux et le stockage dans le Cloud. »
L’experte de Vertiv France poursuit : « De la même façon, en matière d’intelligence artificielle et de deep learning, la conception et l’apprentissage du modèle peuvent être réalisés sur l’infrastructure Edge computing, surtout lorsque ce dernier doit s’appuyer sur des données contextualisées. Le SI central dans le Cloud – et son éventuelle puissance de calcul complémentaire – n’est alors utilisé que pour l’amélioration du modèle, avant d’être redéployé en local. Dans ce cas, le principal intérêt est de basculer une partie du “compute” en périphérie de réseau et replacer les modèles au plus proche de la réalité. Opposer le modèle centralisé du Cloud et celui, distribué, de l’Edge Computing n’a pas de sens. Pour autant, la démarche de la périphérie du réseau nécessite de repenser ses architectures, ses méthodologies et bien sûr ses compétences. »
Des micro-datacenters pour ce cloud distribué aux frontières du réseau
La solution consiste à compléter les grands datacenters par des centres de données plus petits, localisés au plus près de l’application ou du besoin pour désengorger les autoroutes de l’information, gérer efficacement les capacités en temps réel et réduire les temps de latence. Ce dernier paramètre est important pour des applications comme le véhicule autonome ou les échanges de machine à machine de l’Industrie 4.0, mais aussi des applications médicales et toutes celles mettant en jeu la sécurité et la vie humaine.
La sécurité des données est aussi un paramètre important, qui milite pour l’installation de ces datacenters sur le site du client, remarque Didier Payelleville, responsable du segment Datacenter d’ABB France : « Pour des solutions industrielles de contrôle-commande, nos clients sont sensibilisés à la sécurité des données et choisissent celles qui vont dans le Cloud et celles qui restent dans l’usine : données de process ou secrets de fabrication. Notre solution de datacenter préfabriqué SEDC (Secure Edge Data Center) répond bien à ce besoin pour les milieux industriels, pour une installation au plus près du process : protection IP55, protection contre l’incendie (détection + extinction), équipé de 2 onduleurs 2N et testé en usine. Mais cette solution ne se limite pas à l’industrie, elle intéresse également les centres commerciaux ou les hôpitaux et plus généralement la rénovation de salles informatiques dispersées dans une usine ou une université. »
Ainsi, explique Damien Giroud : « La microstructure doit avoir le même niveau de sécurité et de disponibilité que ce que l’on attend pour les plus grands des datacenters utilisés par les géants du Web. C’est aujourd’hui possible : redondance, monitoring et contrôle à distance, cartographie des actifs IT. Ces micro-datacenters peuvent ressembler à de gros boîtiers jusqu’à de grosses armoires telles que notre Smart Bunker, que l’on peut exploiter directement en usine. Ces solutions reviennent plus cher qu’un simple serveur mais l’avantage est de pouvoir déployer une véritable infrastructure avec des mécanismes de sécurité élevés et un pack technique prêt à l’emploi. Pour des secteurs gourmands en capacités et en traitement de données tels que le retail ou les télécommunications, ils constituent l’option idéale favorisant le développement de cloud privés. Le marché des datacenters en containers ou des micro-datacenters représente potentiellement plusieurs milliers d’unités en France. »
Une très forte évolution que confirme le rapport « Data Center 2025 : plus près du Edge », que vient de publier Vertiv. Ce rapport recueillant les perceptions de plus de 800 professionnels des datacenters dans le monde indique les tendances du marché, parmi lesquelles une très forte progression du Edge Computing.
Pour répondre aux besoins et spécifications de ce marché, les constructeurs ont développé une offre modulaire, facile à mettre en œuvre, testée en usine et livrable en 2 ou 3 semaines.
Schneider Electric a orienté son offre de produits selon trois cas d’usage ou d’environnement : les environnements industriels, commerciaux ou IT. Sa solution NetShelter CX permet de déployer une salle informatique dans un coffret ou une armoire. Parfaitement adapté aux applications Edge et IoT où la vitesse de déploiement, la fiabilité et la sécurité sont des prérequis, le Micro DC Xpress SX est certifié par les plus grands constructeurs informatiques dans le domaine de la convergence et de l’hyperconvergence.
Vertiv propose une solution SmartCabinet 24U ou 42U en unités « plug and play », mais aussi des racks Vertiv VR pour un déploiement rapide compatible avec les environnements de haute densité.
Legrand Data Center Solutions, via la marque Minkels, offre une gamme de solutions pour tout type de datacenter, des micro-datacenters MiniCube (rack simple jusqu’à 4 kW) et MatrixCube (baies multiples 22 kW) incluant boîtier, alimentation, surveillance et refroidissement.
Des solutions pour répondre à un développement du marché qui va encore s’accélérer avec l’arrivée de la 5G et ses innovations techniques, qui stimuleront la demande du Edge Computing et amplifieront les avantages qui en découleront.