1 janvier 2015

Inutile d’aller trop loin dans le passé pour s’apercevoir que les data center des entreprises du middle market et du CAC 40 ont grandement évolué.

Il n’est évidemment pas question ici des petites PME qui ont pour salle machines un unique serveur hébergeant tous les rôles et installé entre le bureau de la secrétaire et le réfrigérateur.

Depuis toujours, l’idée des responsables de l’informatique est de parvenir à consolider le matériel de manière à réduire son empreinte carbone mais surtout à amoindrir les coûts. En effet, plus le nombre de matériel est élevé, plus la salle machines devra être grande, plus il y aura de systèmes de climatisation et plus les factures électriques seront salées.

D’un autre côté, plus les constructeurs et types de matériel seront différents, plus l’exploitation sera compliquée et nécessitera plusieurs expertises et donc plusieurs experts.

Un premier niveau de convergence : le packaging

C’est dans ce sens qu’ont été créés les blades center, qui ont remplacé une grande partie des seveurs rack mais aussi des entreprises comme VMware qui a permit grâce à la virtualisation des systèmes x86, de faire vivre plusieurs machines sur un unique et même serveur physique.

Il y a seulement 6 ans, une infrastructure traditionnelle était composée de serveurs x86 (physiques et virtuels), d’un stockage partagé, d’une solution de sauvegarde avec son stockage dédié, des switchs d’interconnexion et d’optionnels appliances servant à la déduplication, à l’optimisation de bande passante, sans parler d’une éventuelle librairie de manière à externaliser les sauvegardes ou simplement à archiver ses données.

En 2009, un premier niveau significatif de convergence va émerger via la création de l’entreprise VCE ; l’association de VMware, Cisco et EMC. Leur offre vBlock va tenter de révolutionner le DataCenter en consolidant au sein d’une même baie provisionnée, câblée et pré-configurée en amont de la livraison, les serveurs x86 avec Cisco UCS, le stockage avec EMC et la virtualisation avec VMware.

Le client n’a alors plus qu’à brancher la baie, configurer les entrées DNS et IP et à créer ses VM.

Attention cependant : ce n’est parce que l’on croit à une sorte de « bundle » que c’en est un. Les conditions financières ne sont pas forcément intéressantes, au contraire.

Une partie des problèmes initiaux ont été résolus : simplification de l’administration, infrastructure synthétique et bien organisée, réduction de l’incompatibilité entre les constructeurs et diminution des coûts opérationnels.

Cependant, tout comme la pile d’infrastructure traditionnelle, cette offre (ainsi que ses concurrents tel Flexpod) n’apportent aucune amélioration en terme d’efficacité car les ressources sont toujours séparées.

De plus, on ne peut pas non plus dire que ces produits s’attaquent significativement au problème de complexité du data center. Ils n’incluent aucune fonctionnalité de protection des données, d’optimisation WAN ou de déduplication, obligeant l’équipe informatique à acquérir chacun de ces produits séparément et l’expertise qui va avec.

 

La convergence 2.0

En parallèle de cette année 2009, d’autres entreprises ont vu le jour pour aller plus loin dans la consolidation de matériel composant le data center traditionnel en incluant au sein d’un serveur 2U les briques computing, stockage et virtualisation. C’est le cas notamment de Nutanix.

L’infrastructure est alors largement simplifiée en terme d’espace, de câblage, de facilité d’intégration et d’administration.

Cependant, la convergence appelée grossièrement 2.0 n’adresse pas la gamme complète, beaucoup plus large, des fonctionnalités du data center ni celles nécessaires à la gestion de l’explosion des données. Par conséquent, nous ne sommes pas encore dans des conditions optimales de réduction des coûts opérationnels, bien qu’un effort conséquent ait été réalisé sur les coûts d’acquisition.

De plus, le coût des IOPS reste très élevé, et la redondance des IOPS n’est pas adressée – sans une mobilité efficace des données à une échelle globale, il n’y a aucun moyen concret de gérer des sites géographiquement distants depuis un centre de contrôle unique.

 

Une « vraie » consolidation : l’hyperconvergence

L’autre entreprise créée en 2009 et ayant fait beaucoup moins de bruit, à juste titre puisqu’ils n’ont commercialisé aucun produit jusque 2013, est SimpliVity.

3,5 années ont été nécessaires au développement de leur carte Omnicube Accelerator capable d’effectuer un traitement de la donnée (optimisation, compression, déduplication) à la source avant même qu’elle ne touche le stockage. Cette technologie va radicalement changer l’inquiétude permanente régnant autour des IOPS, de l’espace de stockage, des réplications intersites et de la mobilité des données.

Couplée à VMware grâce à un plugin permettant de gérer les couches hardware et software de la solution, l’offre de SimpliVity Omnicube est capable de remplacer l’ensemble des composants du data center traditionnel en incluant la protection des données ainsi qu’une notion d’évolutivité rapide et facile à mettre en oeuvre, ce qui fera apparaitre le terme d’hyperconvergence ; la promesse tenue du SDDC au niveau technologique.

 

Pour faire le lien explicitement avec la problématique de départ, les coûts d’une solution hyperconvergente sont donc réduits de manière tridirectionnelle :

– Coûts d’acquisition réduits par 3 – CAPEX

– Coûts opérationnels réduits par 3 – OPEX – un expert VMware suffit à gérer l’ensemble du data center

– Factures électriques réduites par 3 – OPEX – l’empreinte carbone est largement réduite

 

Et ensuite ? 

Au vue de l’évolution rapide des différents niveaux de convergence en quelques années à peine, nous sommes en droit de nous demander quelle sera la prochaine étape.

La plupart des appliances et solution de sécurité étant virtualisable (file server, proxy, load balancer, VPN SSL, WAF, etc), il est possible de les intégrer au SDDC tel qu’il est défini plus haut. Il n’y a donc pas d’évolution possible de ce côté là.

Attendons donc de voir ce que les constructeurs vont nous proposer dans les prochaines années. Ce qui est sûr c’est qu’en attendant, c’est bien aux revendeurs et intégrateurs d’être force de proposition pour faire la différence…

 

Partager :

Auteurs