Les méga-datacenters font régulièrement la une de l’actualité informatique, avec leurs dizaines de milliers de serveurs et leur consommation d’électricité digne d’une ville de taille moyenne. Mais des micro-datacenters de quelques mètres carrés offrent de nouvelles performances pour répondre à de nouveaux besoins qui se développent rapidement : objets connectés, voiture autonome, sécurité des données et traitement local pour une réactivité proche du temps réel. L’avenir des datacenters serait-il aussi dans la proximité ?
Le monde informatique a rapidement adopté le cloud (Nuage) avec ses hyper-datacenters hébergeant de 30 000 à 50 000 serveurs, voire plus, dans d’immenses bâtiments localisés près des grands réseaux de télécommunication et des sources d’énergie. Les entreprises, de la startup à la multinationale, y ont trouvé des économies d’échelle, des coûts maîtrisés, une maintenance et une exploitation centralisées et une efficacité énergétique améliorée dans des centres récents. Ce « cloud computing », une informatique en nuage, va continuer à se développer et les géants Gafa et autres multinationales construiront de nouveaux méga-datacenters. Mais une « autre » informatique se développe en symbiose avec le cloud computing : le « edge computing » ou informatique en périphérie de réseau.
Pourquoi ce « edge computing » ?
Séverine Hanauer, directrice des Ventes Thermal Management et Consulting & Solutions de Vertiv France, nous donne une définition de ce terme : « Le traitement des données à la périphérie ou “edge computing” est une architecture informatique distribuée, ouverte, avec une puissance de traitement décentralisée au service des technologies de l’informatique mobile et de l’Internet des objets (IoT). Les données informatiques y sont traitées par le périphérique lui-même ou par un ordinateur ou un serveur local au lieu d’être transmises à un centre informatique central. » Ce edge computing va privilégier la décentralisation du traitement des données près des usages tout en garantissant un traitement efficace et sûr de ces données dans un mini-cloud local, dédié à des tâches spécialisées. Et Séverine Hanauer précise : « Le besoin exponentiel de traitement des données et au plus près de l’utilisateur final pour certaines applications qui nécessitent une haute qualité de transmission et une latence très réduite (temps de transmission des données entre deux points du réseau) a entraîné un développement des micro-datacenters. »
Ces besoins de traitement de données locales se développent rapidement dans tous les secteurs d’activité, du commerce à l’industrie et aux services, besoins liés à de nouveaux usages.
Damien Giroud, directeur Datacenters de Schneider Electric France, illustre cette techno de quelques exemples : « Ces micro-datacenters adressent de nouveaux usages tels que l’Internet des objets (IoT), qui impliquent la connexion sans fil de dispositifs, systèmes et services au réseau Internet, la réalité augmentée, la connexion “machine-to-machine » pour des matériels se parlant entre ateliers sans passer par un cloud en Irlande ni encombrer les autoroutes de l’information. Ce traitement local va permettre d’améliorer la latence (délai de transmission des données), une latence élevée pouvant être très problématique pour ces nouvelles applications. Mais ce traitement local peut être lié aussi à une stratégie d’entreprise pour des raisons de confidentialité, de traçabilité, de sécurité, les données prenant une place de plus en plus importante sur leur lieu de production. On va trouver pour ces dernières raisons des secteurs comme l’industrie du luxe ou la chimie, mais aussi le marché de la restauration rapide digitalisée, les chaînes de magasins de vêtements (essayage virtuel et promotion), la télémédecine ou les chantiers mobiles avec de la data à gérer sur place. »
Des solutions locales complémentaires au cloud public ou privé puisque Microsoft va proposer des éléments déportés chez l’utilisateur pour prétraiter en local des données en edge computing.
Des micro-datacenters sur mesure prêts à l’emploi
Pour Damien Giroud : « Les micro-datacenters adressent parfaitement les problématiques de latence et de vitesse de traitement imposées par l’Internet des objets. Véritables accélérateurs cloud, ils sont modulaires, locaux, sécurisés, reliés aux grands datacenters via une connexion Internet à haut débit et contribuent à réduire les coûts opérationnels et les coûts d’installation des entreprises. » Ces infrastructures techniques se présentent sous la forme d’une enveloppe préfabriquée, intégrée et sécurisée, testée en usine et pouvant recevoir serveurs, climatisation adaptée, onduleur, options de monitoring et de surveillance, prises d’alimentation. Une offre sur mesure qui peut être livrée en un délai très court de 4 à 10 semaines et être installée dans un bureau, voire dans le couloir d’un bâtiment tertiaire.
Ces équipements sont proposés par des fabricants spécialisés dans les armoires et baies de distribution électrique et informatique comme Efirack ou Rittal et les spécialistes des datacenters comme Vertiv et Schneider Electric. Vertiv propose son offre SmartCabinetTM avec des racks de 24 à 42U pouvant intégrer 1 ou 2 onduleurs. Le catalogue de Schneider Electric comporte le SmartBunkerTM avec système de refroidissement et onduleur et Micro DC XpressSX préfabriqué et testé en usine, totalement plug & play. La dernière gamme de baies Netshelter CX permet de déployer des serveurs et équipements de réseau dans une armoire de bureau silencieuse, ventilée et sécurisée ; une solution adoptée par une chaîne de restauration rapide internationale au Brésil pour ses 900 sites. Des meubles que l’on pourrait trouver au catalogue d’une grande marque scandinave.
Jean-Paul Beaudet