9 mai 2016

Le data center idéal doit relever le défi d’associer simultanément le stockage primaire, les serveurs, les appliances de sauvegarde et déduplication, les appliances d’optimisation WAN, les passerelles public cloud, les logiciels de sauvegarde et les logiciels de réplication de manière à ce qu’ils fonctionnent ensemble dans un bloc unifié de ressources partagées. Si ce problème de données est réellement résolu, alors ce bloc peut devenir la brique de base permettant de construire un datacenter sur le modèle du Cloud mais avec les exigences de l’entreprise. Nous appellerons cela « best of both worlds ».

Aujourd’hui, les équipes informatiques sont tenues de maintenir un niveau de service élevé et d’être constamment innovantes tout en gérant un budget qui n’augmente pas, en conformité avec l’adage “faire plus avec moins”.Non seulement le volume de données augmente de manière exponentielle, mais en plus, les actions sur ces données n’ont jamais été aussi nombreuses :

  • Garantir des performances élevées pour les applications critiques.
  • Assurer la mobilité des données entre les datacenters et avec les sites distants.
  • Intégrer la protection des données.
  • Rationaliser leur administration pour réduire les coûts opérationnels.

 

La virtualisation est devenue le modèle par défaut du datacenter

 

Ces demandes de plus en plus pressantes associées à des objectifs de réduction des coûts et d’augmentation de la flexibilité conduisent les organisations informatiques à se tourner rapidement vers la virtualisation et le modèle du cloud. La virtualisation est devenue le modèle par défaut du datacenter. Avec aujourd’hui plus de serveurs virtuels que physiques, les entreprises entreprennent de plus en plus des démarches de virtualisation totale du parc serveurs / postes clients. La Virtualisation a donc commencé à résoudre le problème au niveau serveur mais les équipes informatiques ont encore les mains liées par le problème des données.

 

Les limites du modèle traditionnel, multiplication des équipements et des expertises.

 

Aujourd’hui, ce que nous appellerons la « pile traditionnelle » atteint ses limites. Ce modèle est composé d’une ou plusieurs infrastructures virtuelles installées sur des serveurs x86 et connectés à un stockage partagé de type SAN ou NAS.S’il ne s’agissait que de ça, il n’y aurait pas vraiment de problème… A ce type d’infrastructure viennent s’ajouter des composants nécessaires dont au minimum :

  • Un serveur de sauvegarde (physique ou virtuel) connecté à une baie de disques pour stocker les données froides. Si la baie fait de la déduplication, c’est tout de même mieux afin de stocker moins de données et de réduire les fenêtres de sauvegarde.
  • Des équipements d’interconnexion pour le stockage (Ethernet 10G pour le iSCSI ou fabric Fiber Channel)
  • Une ou plusieurs solutions de réplication (synchrone ou asynchrone) afin de protéger le système d’informations d’un sinistre sur le datacenter #PRA #PCA
  • Des lecteurs de bandes pour assurer l’archivage des données.

Il s’agit d’un modèle multipliant les équipements –et par conséquence les interfaces d’administration-, complexifiant les infrastructures et nécessitant plusieurs experts afin d’être capable de couvrir l’ensemble des briques du datacenter.

 

Les solutions traditionnelles vieillissantes pour prévoir un investissement sur plusieurs années. Négocier les prix sur plusieurs années et investir seulement les besoins immédiats ou prévoir la croissance sur plusieurs années et investir dans une infrastructure surdimensionnée.

 

Nous spécifiions dans notre introduction que les nouvelles demandes sont incessantes et nécessite d’être à même d’évoluer facilement et rapidement, tout en faisant face à un volume de données qui augmente de manière exponentielle. Encore une fois, le modèle traditionnel atteint ses limites car il n’y a pas beaucoup de solutions, deux pour être précis :Le premier modèle consiste lors de l’acquisition à négocier une garantie des prix sur les 3, 4, 5, x années à venir et de n’acquérir que son besoin à un instant T. Plusieurs problématiques sont alors à prendre en considération :

  • A chaque nouvelle demande nécessitant des ressources de calcul, de stockage ou les deux, l’entreprise doit passer une nouvelle commande induisant des coûts, de la latence, du design et de la prestation pour l’installation et la mise à jour des livrables.
  • Le niveau de service, les attentes de l’entreprise et les impatiences des utilisateurs –bien souvent liées aux habitudes de l’informatique du grand public– provoquent la multiplication du « shadow IT », c’est à dire l’utilisation de services tels que Dropbox, wetransfer, etc.
  • Certains constructeurs sont à même de garantir des prix sur 5 années à venir maximum, d’autres ne le font pas du tout.
  • Les cycles de maintenance seront différents et les renouvellement seront très aléatoires. Par ailleurs, ce système favorise le mariage avec les constructeurs initialement retenus.

Les seuls avantages étant de pouvoir facturer des ressources à un service interne et d’avoir une infrastructure de croissance à la demande, les entreprises se tourneront plutôt vers une solution dans le cloud de type « Pay as you grow ».Le second modèle consiste lors de l’acquisition à effectuer des prévisions de croissance sur les 3, 4, 5, x années à venir et acquérir une infrastructure surdimensionnée à un instant T. Les coûts ne sont pas anodins et la solution peu fiable :

  • A l’acquisition, l’entreprise paiera pour un gros volume d’équipements et composants non utilisés qui, par ailleurs, consommeront en électricité et en refroidissement, sans compter les coûts d’une maintenance inutile.
  • Comme toute prévision, il est impossible de savoir si on est dans le vrai. Les ressources disponibles peuvent avoir été surdimensionnées, même 5 ans après, ou au contraire sous dimensionnées et les limites atteintes en quelques mois. La révolution digitale a débutée depuis quelques années déjà mais n’est pas prête de s’interrompre, il faut donc prendre en considération la stratégie fixée par l’entreprise pour les années à venir, en admettant que la direction garde son cap et que les équipes internes communiquent correctement.

Le tableau est assez sombre mais il faut bien comprendre que ce modèle n’a plus sa place dans les entreprises -en tout cas, pour héberger la production car un environnement de développement reste envisageable-.

 

 

Le cloud : une infrastructure élastique basée sur la consommation mais onéreuse et difficile à sécuriser.

 

Une des alternatives se trouvent être dans le cloud, c’est à dire d’avoir une infrastructure élastique basée sur la consommation et les nouveaux besoins couplée à des fonctionnalités d’automatisation, d’orchestration et d’auto-allocation des ressources informatiques. Le cloud permet l’allocation rapide de ressources informatiques –calcul, mémoire, stockage, services applicatifs, services de protection des données, etc.– depuis un ensemble centralisé et automatisé de ressources qui s’orchestre autour des besoins de production de l’entreprise.C’est une manière totalement nouvelle de penser la fourniture de services informatiques. Les contraintes de cette solution ne sont plus à expliquer ; il s’agit d’un modèle onéreux dont on ignore les mécanismes de sécurité et de confidentialité. Beaucoup d’entreprises n’y sont pas favorables et les équipes informatiques ont pour feuille de route de n’héberger aucune information appartenant à la société à l’extérieur des Datacenters. On notera par ailleurs que les gros acteurs du cloud n’offrent pas aujourd’hui de solution pertinente complète au problème des données, ce qui introduit un dilemme : comment transposer dans un Datacenter d’entreprise une technologie cloud flexible comme celle d’Amazon ou de Google alors que ces dernières n’adressent pas les exigences liées à la gestion et la protection des données ? Les solutions lourdes actuelles de traitement des données qu’il faudrait ajouter sont en complet décalage avec le design de ces Datacenters.

 

Afin de permettre la construction d’un datacenter sur le modèle du Cloud mais avec les exigences de l’entreprise – « best of both worlds » – l’hyperconvergence a fait son apparition par l’intermédiaire de constructeur dont un des plus connux ; SimpliVity.

 

Présentation de SimpliVity : Hyperconvergence 3.0.La solution révolutionnaire de SimpliVity est son OmniCube hyperconvergé : un bloc de 2U économique et évolutif qui se base sur une plateforme serveur x86 pour offrir toutes les fonctionnalités d’une infrastructure IT dans un seul produit. L’OmniCube est donc une appliance d’infrastructure « tout-en-un » qui comprend le stockage, le traitement, le réseau, l’hyperviseur, la déduplication en temps réel, la compression et l’optimisation auxquels s’ajoutent toutes les fonctions de gestion des données, de sauvegarde, de réplication et de restauration.L’OmniCube doit donc être vu comme une brique de base de 2U conçue selon les standards des systèmes x86 et qui comprend le processeur, la mémoire, des disques SSD, des disques durs mécaniques et des interfaces réseau 1Gb et 10Gb. Cette brique peut se connecter en cluster à d’autres OmniCubes de manière simple et évolutive pour répondre à tous les besoins en terme de performance, de capacité, de disponibilité et de fonctionnalités.Par ailleurs, les Omnicubes peuvent se connecter à des ESXi standalone permettant de recycler des serveurs récemment acquis et/ou d’ajouter de la capacité de calcul à l’infrastructure sans nécessairement faire évoluer le stockage. Enfin, ils peuvent être connectés à des volumes NFS existants si besoin.Avantages de la solution et inconvénients…Les avantages majeurs d’une telle architecture sont :

  • L’accélération des performances grâce à l’élimination des IOPS redondantes
  • L’optimisation de la capacité de stockage
  • L’optimisation WAN grâce à la suppression d’envoi des données redondantes entre les datacenters et les sites distants
  • La solution propose un modèle d’infrastructure et d’économie de type cloud avec des fonctionnalités de type entreprise (performance, fiabilité, disponibilité, sécurité, protection des données, et reprise d’activité).

 

SimpliVity désigne ce niveau d’intégration comme l’Hyperconvergence 3.0.

Cette solution est conçue pour une haute disponibilité sans aucun point de rupture. En combinant des fonctions très puissantes et un partage total de ressources dans un bloc IT évolutif, l’Omnicube offre une simplification du système et une optimisation des coûts qui surpassent largement les solutions traditionnelles.

 

Dès l’écriture de la donnée à la source de la VM, l’OmniCube la déduplique, la compresse et l’optimise en ligne, une seule et unique fois, « quelque soit » sa destination. Ce « quelque soit » est un réel défi car il implique un système global de fichier et d’adressage des données. La plupart des systèmes font de la déduplication sur une seule phase de la vie de la donnée et induisent une nécessaire réhydratation de cette donnée qui est coûteuse en ressources à chaque nouvelle étape (stockage primaire, sauvegarde, archive, WAN, Cloud). SimpliVity déduplique, compresse et optimise la donnée une seule fois et cette dernière n’est plus jamais modifiée, où qu’elle se trouve.

De plus, la solution propose des sauvegardes, restaurations, clones en un temps éclair ce qui apporte beaucoup de souplesse aux équipes informatiques et une livraison de nouvelles applications très rapide.

En ajoutant les fonctionnalités de réplication synchrone et asynchrone, une administration centralisée (plug-in VMware pour gérer la solution) et un modèle de licensing simple et efficace, nous pouvons parler des inconvénients de la solution.

En effet, tout n’est pas parfait non plus, bien que la solution s’en rapproche. SimpliVity n’est compatible jusqu’à présent qu’avec l’hyperviseur ESXi de VMware. Hyper-v, KVM et leurs copains ont été laissé à l’abandon dans ces premières années de commercialisation, bien que la road map en fasse état à l’horizon 2017.

Par ailleurs, le vCenter est essentiel pour le fonctionnement des Omnicubes, sans pour autant devenir un SPOF car son indisponibilité n’est pas gênante une fois la solution déployée.

De plus, et contrairement à la concurrence qui peut se déployer à partir de trois nœuds, SimpliVity peut fonctionner à partir de deux équipements ce qui apporte la haute disponibilité des ressources et du stockage mais qui implique un désavantage : l’arbiter servant de heartbeat doit être positionné à l’extérieur des SimpliVity afin de se prémunir d’un « split brain ». A partir de 3 Omnicubes, l’arbiter peut être intégré à l’infrastructure.

Enfin, il manque dans la gamme un équipement capable de provisionner uniquement du stockage et un équipement capable de fournir un bloc composé uniquement de disques flash.

 

Comment aller vers le Software-Defined DataCenter ?

Depuis des années, nous entendons parler de SDDC – Software-Defined DataCenter.Le Software-Defined Compute, comme expliqué en introduction, a fait ses preuves et la plupart des entreprises y ont pris goût par l’intermédiaire d’acteurs désormais incontournables comme VMware, Hyper-v, etc.Le Software-Defined Storage correspond à la virtualisation du stockage et de son écosystème. Depuis 2014, il est devenu incontournable dans la réflexion des entreprises qui souhaitent renouveler leur infrastructure et il passe par des constructeurs éprouvés dont les plus connus sont VMware, Nutanix et SimpliVity.Il manque toutefois la notion de Software-Defined Network afin de virtualiser le réseau et les éléments de sécurité d’un datacenter. Les acteurs du domaine de l’infrastructure se demandent, encore aujourd’hui, qui va remporter la guerre du SDN. Tout porte à croire que les principaux acteurs seront à nouveau VMware avec sa solution NSX (rachat de Nicira) mais aussi Cisco ACI via les Nexus 9k ou encore Juniper avec Contrail.De mon point de vue, afin d’obtenir la promesse tenue d’un SDDC au niveau technologique, je préconiserai une association VMware vSphere, SimpliVity, VMware NSX et VMware vRealize Automation, ce qui permettrait de réunir le monde du cloud et les contraintes des entreprises dans des blocs 2U hautement évolutifs hébergeant toutes les briques du datacenter.

 

Partager :

Auteurs