La virtualisation du stockage
By   |  July 09, 2015

S’il est un sujet qui fait florès en matière d’IT depuis quelques années, c’est bien la virtualisation. Tant et si bien que tout y passe : réseaux, stockage, serveurs et même postes de travail. Après une phase de maturation à la fois technologique et marché, il était temps de s’intéresser aux bénéfices concrets que la virtualisation du stockage procure à l’entreprise.

De nos jours, la virtualisation est un mélange subtil de matériel et de logiciel. Côté matériel, l’évolution des processeurs dont le nombre de cœurs physiques et logiques va sans cesse croissant, les destine tout naturellement à des missions de virtualisation. Les processeurs Xeon de troisième génération (Haswell) comptent ainsi de 4 jusqu’à 18 cœurs physiques pour le Xeon E5-2699 v3 ! Cela multiplie d’autant les capacités pour un serveur d’exécuter des VM par dizaines dans des conditions optimales. Pour un serveur bi- ou quadri-processeur, le nombre de VM actives pouvant être exécutées peut se compter par centaines. A cela s’ajoutent des instructions spécifiques intégrées au processeurs, dites VT (Virtualization Technology) qui améliorent les performances des VM en leur octroyant des capacités d’adressage direct via le bus PCI Express, des ressources matérielles de la machine hôte.

Côté logiciel, les deux ténors des plateformes de virtualisation se nomment Microsoft Hyper-V et VMware vSphere (aussi connu sous le nom ESXi Server). Le premier est une plateforme employant un hyperviseur de type 2, à savoir fonctionnant par-dessus un système d’exploitation d’exécution (Windows Server 2012 ou 2012 R2). Le second emploie pour sa part un hyperviseur de type 1, indépendant de tout OS et s’exécutant nativement sur le serveur d’accueil.

  • Bénéfice n°1 : Souplesse – Une console d’administration unique procure une connaissance et une visibilité optimales pour identifier les zones rapides et moins performantes du stockage d’entreprise. Avec des fonctions inédites de migration à chaud impossibles avec un stockage traditionnel.
  • Bénéfice n°2 : Performances – avec un stockage virtualisé, les performances ne dépendent plus seulement du matériel. Mieux, les logiciels récents comme SANSymphony v10 redonnent un coup de fouet avec une logique de cache en mémoire qui décuple les performances à matériel égal !
  • Bénéfice n°3 : Indépendance matérielle – seuls les grands comptes ont un parc de stockage homogène. Or au fil des ans, il est courant de changer de fournisseur. Une couche de supervision logicielle permet de mettre tout le monde d’accord en n’obligeant pas à sacrifier les ressources âgées ou moins performantes.

Pour ce dossier consacré à la virtualisation du stockage, nous nous sommes adressés au précurseur Datacore, qui en a inventé le concept à la fin des années 90 avec son applicatif SANSymphony, lequel vient de fêter sa 10ème édition. Pascal Le Cunff, DG France, nous a aidés à distinguer les principaux bénéfices de la virtualisation du stockage

Compte tenu de la nature logicielle du stockage virtualisé, les nouvelles tendances et évolutions peuvent être intégrées tous les 12 à 15 mois dans de nouvelles releases de l’applicatif. Cela afin de tenir compte des évolutions des infrastructures, mais aussi, selon les besoins des entreprises, de suivre des installations qui ont vocation à ne pas bouger.

Le bénéfice numéro 1 de ce modèle est la dissociation des couches service et données. Selon Pascal Le Cunff, l’entreprise a tout à gagner avec des solutions virtualisées de la sorte. D’abord sur la partie applicative avec une solution VMware avec pour bénéfices cardinaux la possibilité d’établir un cluster applicatif pour gagner en performances, mais aussi en tolérance de pannes. Et aussi obtenir une meilleure répartition de la charge. Côté Stockage, DataCore procure une indépendance par rapport au matériel, une qualité de service et le regroupement des entrées/sorties en mémoire pour gagner en performances avec des accélérations inédites.

Dissociation des couches service et matériel, même combat
Cette approche virtualisée permet de rester agnostique par rapport au matériel. Quelles que soient les marques des ressources dédiées au stockage dans l’entreprise, elles pourront être toutes gérées depuis un tableau de bord unique. Il ne faut pas oublier que cela s’applique également aux interfaces, qui ont bien souvent évolué de façon hétéroclite et désordonnée au gré des standards au fil des ans. Une solution de virtualisation permet de faire coexister – et faire communiquer ! – des ressources Fibre Channel et iScsi, par exemple, et ce de façon transparente. Ce n’est pas le seul bénéfice : l’accès à des fonctions récentes et innovantes comme l’auto-tiering (déplacement sur du stockage rapide comme le Flash des accès les plus fréquents), le CDP (sauvegarde en continu) et le thin provisioning est également de la partie. A cela s’ajoute une souplesse d’interconnection avec des espaces Cloud comme Azure deMicrosoft, avec des fonctions de Snapshot à la source.

Doter le stockage de règles pour garantir l’exploitation
Le principal ajout est la qualité de service, laquelle permet de jouer sur la prioritisation des entrées/sorties selon leur importance ou criticité pour équilibrer la capacité de l’infrastructure avec les demandes de l’exploitation tout en restant dans les limites admissibles.

Ainsi, la base de données applicative métier de l’entreprise pourra disposer d’un débit garanti et ainsi rester exploitable dans les meilleures conditions. Ou encore maintenir un pourcentage minimal de la bande passante en cas de forte sollicitation ou surdemande et assurer la haute disponibilité. Ce n’est du reste nullement une question de volume le rappelle Pascal Le Cunff, en citant pour exemple le cas d’une exploitation agro-alimentaire dont la base de données ne fait que 300 Go, mais qui héberge mes données de traçabilité, et doit donc être accessible en permanence avec des débits optimum.

L’indépendance matérielle pour conjuguer existant et nouvelles technologies
Une infrastructure d’entreprise est quasiment toujours l’amoncellement de ressources multimarques et hétérogènes, employant des connectiques distinctes : SAN iScsi, SAN FC, disques, baies… Ce qui n’est pas sans poser problème lorsqu’un constructeur décide de faire évoluer ses gammes. L’exemple d’un client qui a acheté une baie IBM il y a 3 ans et qui est retirée du catalogue pose question au niveau de lévolution du firmware et de la compatibilité avec la plateforme VMware. Autre exemple courant, celui du client qui pour faire évoluer son infrastructure démarrée des années en arrière, se voit obliger de rester dans la même technologie, souvent à des coûts exorbitants (ce qui devient rare est cher), et pour des performances sans rapport avec les matériels récents. Une architecture de stockage virtualisé permet d’accéder aux dernières technologies du moment sans perturber l’existant L’indépendance matérielle a d’autres vertus, comme la possibilité de se dépanner sur le pouce avec un disque acheté chez le retailer du coin, le temps que le disque tombé en panne revienne de garantie et ainsi réduire le risque d’une seconde panne. C’est aussi l’opportunité de s’équiper en baies de stockages non intelligentes (puisque cette dernière est déportée au niveau de l’hyperviseur de stockage) et donc à moindre coût.

La migration sans le casse-tête
Les effets de migration s’en trouvent également lissés lors d’une phase de consolidation, durant laquelle de nombreux disques de capacité réduite sont remplacés par des disques récents à plus forte capacité. Et en plus la consommation énergétique tombera en flèche ! Habituellement, une migration sans virtualisation oblige à sauvegarder les données au préalable (et donc à prévoir un espace de stockage en conséquence), avec pour caractéristiques d’être long, lourd et risqué, sans compter qu’il faudra à injecter les données ayant changé pendant la phase d’immobilisation. Lorsque le stockage est virtualisé, la couche d’abstraction qui l’isole du matériel permet, par une fonctionnalité connue sous le nom de « substitution », de copier les données sur les nouveaux espaces de stockage sans interruption – et à l’issue, de vous laisser la liberté de conserver les anciens espaces devenus moins performants pour des besoins moins critiques ou de les retirer, tout simplement.

Une ouverture vers le Cloud simplifiée et un stockage à trois vitesses
Exploiter le Cloud comme un espace de stockage tiers à des fins de débordement ou de PRA/PCA est plus simple avec une infrastructure virtualisée. En fonction de la vitesse du lien, on pourra maintenir une mécanique de backup synchrone (haut débit) ou asynchrone (bas débit). Mieux, le Cloud est également intégré à la console d’administration unique afin de garder une vue d’ensemble la plus claire et complète possible. Cette dernière autorise par exemple la répartition des espaces en fonction de leur performance, pour des missions adaptées. Outre l’intégration transparente du cloud, un hyperviseur virtualisé autorise la distinction des types de stockage. Ce sont typiquement trois niveaux de stockage qui sont mis en place au sein de l’entreprise : stockage peu performant : en secours pour backups locaux. Stockage performant : réservé à la production et aux besoins bureautiques critiques (compta, RH). Stockage très performant à base de SSD ou de Flash : applicatifs critiques de l’entreprise.

Le stockage le plus performant pour les missions les plus critiques.
A ces trois types d’espaces de stockage, il est possible comme on l’a vu plus haut d’ajouter des règles de qualité de service (QOS) pour garantir leur disponibilité et ainsi coller à l’évolution des besoins. Par exemple, une base de données métier qui passe de 50 Go à 700 Go pourra être migrée sur des ressources de stockage à la fois plus performantes et capacitives. Sans oublier une règle d’or en matière de stockage : mieux vaut répartir les données sur plusieurs disques (ou baies) de plus faible capacité que de les mettre dans un seul disque ou baie plus ample, pour d’évidentes raisons de résilience. L’autre intérêt est d’assurer une meilleure répartition de charge sur plusieurs baies et disques (mieux vaut 3 disques de 300 Go que 1 seul disque de 1 To). Certains contextes applicatifs requièrent les ressources les plus rapides disponibles. Ainsi, les plus fortes contraintes sont celles induites par la virtualisation des espaces de travail (VDI ou DaaS). Un logiciel tel que SANSymphony permet d’identifier les performances volume par volume pour connaître les zones lentes et rapides sur plusieurs espaces de stockage. Et aussi identifier les éventuels goulets d’étranglement et déplacer au besoin les applicatifs sur des disques ou pools de stockage plus performants, totu comme l’autorise VMware pour les workloads. Le bonus d’une telle visibilité est de bénéficier des statistiques d’usage pour bénéficier d’une prédictivité de défaillance et ainsi anticiper pour les éviter, les risques d’arrêt de l’exploitation.

Pendant ce temps, du côté de VMware…
Chez VMware, le Software Defined Storage n’est qu’une partie de leur stratégie globale autour du SDDC, Software Defined Data Center. Après la partie « compute » avec la virtualisation des serveurs, après le réseau avec l’arrivée de NSX, l’éditeur s’attaque aussi au stockage avec VSAN et VVOL, des nouveaux produits annoncés lors du dernier VMworld US. « L’idée de base est de reproduire exactement la même chose dans le domaine du stockage que ce que l’on a déjà réalisé avec les serveurs, » explique Stéphane Croix, Directeur avant vente chez VMware. « Soit l’abstraction entre les ressources physiques et les applications avec une mise en commun de ces ressources ainsi que leur automatisation. Parallèlement côté client, les administrateurs stockage nous remontent souvent le fait qu’ils doivent faire face à une volumétrie croissante (plus de 41 % de hausse en terme de volumétrie vendue par an) alors qu’ils subissent également la pression des responsables application qui désirent s’assurer de la qualité de service comme de la disponibilité du stockage au service des logiciels métier. Dernier point négatif remonté, la complexité de certains environnements de stockage qui nécessitent pour le coup du personnel dédié. »

Un stockage régenté par des règles
L’approche VMware est de définir un stockage basé sur des règles : on prend le stockage physique sur lequel on fait reposer une couche d’abstraction en même temps que de mettre en commun toutes les ressources. Par la suite, l’administrateur VMware utilise ces ressources non pas avec une notion de volumétrie voulue mais avec une notion de qualité de service attendue en ce qui concerne le stockage. Pour réaliser cela, il faut tout d’abord définir des règles (stockage extrêmement rapide ou stockage extrêmement rapide et hautement disponible ou encore un stockage redondant, etc.). Dans ce cas, l’administrateur VMware ou l’utilisateur qui est en charge de déployer les machines virtuelles n’aura plus besoin de savoir sur quel stockage il sera réellement physiquement rattaché mais il devra par contre indiquer les spécifications de l’application à déployer (hautement disponible et ultra performante par exemple). Par conséquent, l’application est déployée par rapport à des règles de qualité de service définies au niveau de l’environnement de stockage. L’approche stockage sera donc bien en corrélation avec les besoins réels des applications ou des VM.

Deux solutions pour un même objectif
Concrètement, il existe deux solutions chez VMware pour mettre en oeuvre cette stratégie. Le premier produit est sorti en début d’année et s’appelle VSAN. C’est une technologie embarquée directement dans l’hyperviseur VMware qui permet de définir des règles de qualité de service en utilisant les disques locaux des serveurs. Ainsi l’administrateur va créer un pool de serveurs et les disques physiques seront concaténés pour former une unité logique. Là, les règles de qualité de service seront définies et l’administrateur des VM consommera donc de la ressource en se basant sur cette notion. Pas d’administrateur stockage dédié ici car le système est simple et la personne en charge peut même s’appuyer sur des assistants pour déployer. Une mise en pratique concrète de ce concept est EVO:RAIL, une infrastructure convergée composée de serveurs, disques et utilisant la technologie VSAN. Une nouvelle technologie vient d’apparaître chez VMware. Baptisée VVOL (Virtual Volume), c’est tout simplement une extension de ce que l’on a appliqué avec VSAN, soit un système basé sur des règles mais appliqué cette fois à des systèmes externes appartenant à des partenaires proposant des solutions SAN ou NAS. De la même façon tout sera basé sur des règles (redondance, performance, disponibilité, etc.) et l’administrateur « consommera » son SAN ou son NAS comme on peut le faire au sein d’un VSAN (sans parler ni de LUN ni de volume). Concrètement, il y a une intégration entre les partenaires possesseurs des baies physiques et VMware sur l’utilisation des technologies nécessaires (vSphere, vCenter). Le logiciel VVOL est ainsi présent côté VMware comme côté matériel externe. L’administrateur stockage va créer les règles et quand le consommateur de ces environnements va déployer des machines virtuelles, il va choisir une volumétrie (physique ou virtuelle, c’est transparent) qu’il voudra mettre dans un environnement spécifique ce qu’il fera en se servant des règles mises à disposition.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index