28 mars 2013

S’il est un lieu qui a concentré un grand nombre des évolutions réseaux de ces 10 dernières années, c’est bien le monde du Datacenter. Il a été nécessaire de traiter toujours plus de problématiques dans des environnements de plus en plus critiques pour le fonctionnement des entreprises. Comme principaux points, on peut noter la concentration des machines et des services, la sécurisation des salles d’hébergement, la sécurisation du service pour optimiser sa disponibilité, augmenter les débits,… Il en a résulté des technologies que nous utilisons maintenant au quotidien telles que la virtualisation, le mode cluster, le multiplexage, et bien d’autres encore.

D’un point de vue réseau, cela a engendré aussi un grand nombre de changements. La notion de vlan pour permettre une segmentation logique de nos périmètres tout en continuant d’utiliser les mêmes liens physiques. Premier niveau de virtualisation du réseau qui a ouvert la porte à bien d’autres possibilités que nous verrons plus loin. La sécurisation utilisant 2 sites pour assurer une continuité en cas de perte du premier site, il a été nécessaire de travailler sur des technologies capables de répondre à différentes problématiques : Continuité du LAN niveau entre les sites, Capacité à transporter de l’Ethernet sur du WAN (liens opéré, technologie différentes d’Ethernet,…)

De même, il a fallu améliorer la technologie de transport pour permettre de tenir compte de l’augmentation des volumes de données ainsi que la densification du nombre de serveurs. On est passé en 10 ans d’un débit au port de 100Mo/sec à un débit minimum de 10Gb/sec. Et on n’est pas prêt de s’arrêter : les normes 40Gb/sec et 100Gb/sec sont en cours de finalisation par l’IEEE (802.3ba).

Mais ce qui a surement le plus évolué en 10 ans sont les méthodes et les protocoles pour réaliser le design de nos Datacenter. Au début des années 2000, la conception de ce genre de salle d’hébergement était basé sur Ethernet, 802.3ad, du xSTP et un peu de routage. Mais depuis quelques années, on entend parler de nouveaux concepts, le design se complexifie pour répondre au fait que le réseau devient une solution de connexion pour des services / applications gérées par des entités indépendantes les unes des autres.

Ainsi, on a vu arriver la notion de MPLS dans le Datacenter et pas seulement dans le monde opérateur. Cela permet de créer des environnements réseaux indépendants les uns des autres et ainsi fournir des services avec des SLA pour chacun des clients de la Direction Réseau. Avec cette technologie, il devenait simple de transporter des technologies non Ethernet au sein du Datacenter full Ethernet, de fournir un environnement de niveau 2 à un client tout en créant des VPN de niveau 3 pour d’autre entité et sans multiplier les équipements d’accès.

Est arrivé ensuite les technologies qui visent à remplacer les protocoles de la famille Spanning Tree. En effet, ce protocole assure une redondance des liens de niveau 2 mais apporte quelques contraintes telles que gérer de manière optimum l’ensemble de liens, extension de l’architecture puisque l’ajout d’un équipement nécessite de vérifier la manière de l’implanter dans l’environnement, définir les couts pour éviter une convergence malencontreuse. Pour cela, deux nouvelles technologies apportent des réponses : TRILL et SPB. Le gros avantage de ces 2 protocoles est de permettre un usage actif de l’ensemble des liens et donc de limiter les problèmes de configurations de l’environnement.

Une autre méthode pour palier à l’augmentation du nombre d’équipements et aux problématiques de segmentation, diffusion, est de pousser le principe de Stack / Virtual Châssis à l’extrême et de séparer les composant d’un châssis en plusieurs équipements, ce que propose notamment Juniper avec sa solution QFabric. Le switch est donc une notion diffusée au niveau du Datacenter et non local à une baie. On remarque au passage que notre réseau devient une « Ethernet Fabric » pour illustrer le fait que l’on tend vers un réseau à plat sans routage plus ou moins complexe. Mais le terme « Fabric » annonce une autre évolution : La convergence du réseau de données classique avec les Fabric SAN. Plus besoin de maintenir 2 réseaux différents avec 2 familles d’équipements, tout transite par les mêmes infrastructures.

Enfin, le fait de tendre vers un réseau à plat pour optimiser la souplesse du Datacenter n’aurait pas d’intérêt sans pousser à l’extrême le niveau d’adaptabilité du réseau à son environnement. Et là, vous voyez surement le terme du moment arriver : le SDN pour Software Defined Networking. L’objectif annoncé est de permettre à un « orchestrator » de configurer les différents éléments du réseau pour déployer rapidement et automatiquement un nouvel environnement. Pour cela, le plan de contrôle est complètement decorrélé et agnostique du plan de traitement des données réseau. Le protocole se base sur une spécification réalisée par Google et Facebook rien que ça et les constructeurs commencent à sortir des équipements dédiés SDN

Les technologies Datacenter sont donc en constante évolution pour répondre à des attentes mais permettent aussi d’ouvrir de nouveaux axes d’évolutions. Cet article est avant tout un résumé des évolutions, nous essayerons dans de prochains articles de traiter en détails certains des sujets évoqués aujourd’hui.

Mais nous sommes bien sûrs disponibles pour en discuter avec vous autour d’un café.

 

Partager :

Auteurs