L’hyper-convergence : une concrétisation bienvenue du « software defined » capable de remplacer les infrastructures classiques ?
By   |  February 08, 2016

Christian Laporte est Storage solutions product manager, Hewlett Packard Enterprise France

Les solutions d’hyper-convergence ont-elles vocation à remplacer les infrastructures classiques? Est-il bienvenu de les assimiler au concept de ‘Sofware defined’? Quels critères faut-il prendre en considération pour ne pas risquer de créer de nouveaux silos?

L’hyper-convergence peut se définir comme un nouveau mode de déploiement d’infrastructures virtualisées, ayant l’avantage d’intégrer sous un format modulaire, serveurs, stockage, hyperviseur, voire réseau. Les différentes couches logicielles sont toutes préinstallées et préconfigurées en usine sur les composants matériels. Une particularité importante des systèmes hyper-convergents est la mutualisation du stockage interne des serveurs ce qui évite l’investissement dans une baie de stockage dédiée de type SAN (Storage Area Network). Les systèmes hyper-convergent s’appuient par ailleurs sur une architecture dite ‘scale-out’ qui permet par ajout de modules, d’accroître à la fois la performance applicative et la capacité de stockage.

C’est donc tout l’intérêt d’une solution complète, prête à l’emploi, plus économique et plus rapide à mettre en œuvre que les infrastructures traditionnelles s’appuyant sur des baies SAN ou même les ‘systèmes convergés’ (comme les HPE ConvergedSystem ou VCE Vblock, par exemple) plutôt destinés à des datacenters d’une certaine taille.

L’intérêt pour les solutions d’hyper-convergence s’est accéléré au cours des deux dernières années. L’offre est aujourd’hui plus large et ne se limite plus seulement à celle de fournisseurs spécialisés. Et l’on constate que de plus en plus de DSI intègrent dans leurs appels d’offre d’infrastructure une option hyper-convergence.

L’industrie est parvenue à concevoir des configurations abordables, plus simples à démarrer et à faire évoluer, et nécessitant donc moins d’expertise technique pour les déployer : c’est l’avènement du ‘prêt à porter’ avec des plateformes à base de serveurs Intel x86 standard et de ‘Software-defined Storage’. Ce sont également des solutions qui peuvent être denses et très flexibles, permettant de loger jusqu’à quatre serveurs avec leurs disques dans un encombrement de 2U. Cela représente un gain d’espace de 75% par rapport à des serveurs au format rack traditionnels.

De la mise sous tension d’une telle ‘appliance’ jusqu’à l’approvisionnement de la première VM, on peut compter sur un délai de moins de 30 minutes.
Le coût total de possession est réduit de 24% et, selon plusieurs benchmarks, le retour sur investissement est deux fois plus rapide que celui des solutions classiques.

L’approche ‘Software-defined’
L’innovation introduite dans l’hyper-convergence découle directement du concept de ‘Software-defined Storage’ apparu il y a déjà de nombreuses années, avant même que ce terme soit utilisé par les analystes (LeftHand Virtual Storage Appliance (VSA) début 2008, racheté la même année par Hewlett Packard Enterprise (HPE) par exemple). Les solutions ‘Software-defined Storage’ sont nombreuses sur le marché et n’adressent pas toutes les mêmes besoins (bloc, fichiers et/ou objets ; stockage primaire ou archivage) et tailles d’organisation. Dans le cas des systèmes hyper-convergents où le logiciel va apporter des fonctions de stockage partagé, plusieurs approches sont disponibles : le logiciel mutualisant le stockage interne des serveurs et apportant les services de données est soit natif dans l’hyperviseur, soit embarqué au sein d’une VM ; ce dernier cas permet d’offrir une indépendance quant au choix de l’hyperviseur.

Les fonctions de stockage sont celles disponibles au sein de baies de de stockage SAN de milieu de gamme : snapshots, clônes, thin provisionning, autotiering, réplications synchrone et asynchrone, voire déduplication et compression.

Le ‘Software defined’ offre une très grande souplesse de création permettant une configuration ‘sur mesure’ de son ‘cluster’ de serveurs (nœuds). Des centaines de combinaisons sont en effet possibles grâce à des gammes serveurs de plus en plus étendues ainsi qu’à un large choix de types de disque pouvant être par ailleurs mixés (disques mécaniques rapides ou capacitifs, disques flash). C’est généralement le revendeur choisi par la DSI de l’entreprise qui préconise la configuration en fonction du cahier des charges et qui assure l’intégration de la solution qui comprend serveurs, disques, hyperviseurs et plug-ins pour une meilleure intégration et gestion au quotidien (cf. vCenter de VMware pour HPE StoreVirtual VSA).

Vers des configurations plus évolutives encore
Ces solutions n’intéressent pas seulement les entreprises de taille moyenne disposant de peu de ressources IT mais également de grandes organisations qui veulent disposer rapidement d’environnements largement virtualisés (pour la VDI ou pour certaines applications métier). Leur administration s’effectue, en fonction des solutions, soit via l’outil de gestion de leur hyperviseur préféré associé à un plug-in, soit via l’interface spécialement développée par le constructeur de l’appliance’.

Le marché s’oriente vers des configurations plus souples et plus concentrées encore, avec l’intégration de 2 à 4 noeuds (serveurs) dans un même boîtier 2U et un nombre de disques de stockage en proportion. Les configurations restent extensibles à 8 ou 16 nœuds (voire davantage chez certains constructeurs), par simple adjonction de nouvelles ‘appliances’. Mais il se confirme que beaucoup d’entreprises souhaitent démarrer avec moins de 4 noeuds.

L’heure est à une plus grande souplesse dans les choix de configuration et des composants, donc à une offre ‘à la carte’ plus étendue encore qui bénéficie de l’intégration usine du constructeur.

Ainsi, une augmentation des besoins en CPU (serveurs) n’implique pas nécessairement une augmentation proportionnelle de la capacité de stockage. Ou inversement. C’est là la limite du modèle des ‘appliances’ qui impose un investissement incrémental à la fois dans les unités CPU et dans les disques de stockage.

Dans le cas, par exemple, d’un déploiement de solutions de VDI (Virtual desktop infrastructure, ou postes de travail virtuels), on a en général autant besoin d’augmenter la capacité CPU que celle des disques de stockage. Mais dans certains cas d’usage ou dans certains environnements de travail, c’est l’augmentation de la volumétrie du stockage qui va l’emporter sur celle des ressources CPU. L’entreprise ne veut investir que là où c’est immédiatement utile. Il est donc primordial de voir comment il est possible d’ajouter da la capacité à la solution sans devoir ajouter un nouvel incrément nœud ou module comprenant à la fois serveur et stockage.

L’hyper-convergence s’ouvre davantage à l’environnement Hyper-V de Microsoft
A noter que l’offre de systèmes d’hyper-convergence s’appuyant sur l’environnement Hyper-V de Microsoft s’enrichit avec les annonces faites par HPE lors de son évènement Discover à Londres en ce début décembre 2015. Le nouveau système HPE Hyper Converged 250 for Microsoft Cloud Platform System (CPS) Standard s’appuie sur la même plateforme matérielle 2U à 3 ou 4 serveurs et le logiciel StoreVirtual VSA que son équivalent VMware. Son originalité est d’intégrer le Windows Azure Pack qui donne accès à des services cloud tels que la sauvegarde et la restauration pour la protection de l’activité.
Les limites de l’hyper-convergence

Force est donc d’admettre que ce modèle d’hyper-convergence a ses limites. Dans le cas où les niveaux de qualité de service (SLA) doivent être suivis très rigoureusement (performance, latence, intégration aux applications, etc), ou lorsque l’on veut bénéficier de la déduplication à la volée, ce qui nécessite beaucoup de puissance de calcul, les plateformes d’hyper-convergence peuvent montrent leurs faiblesses. Des solutions de stockage dédié de type SAN qui intègrent une architecture et des composants spécifiques pour traiter certaines fonctions (comme les baies HPE 3PAR StoreServ équipées d’ASIC pour la suppression des zéros et la déduplication en ligne par exemple) restent plus adéquates. Dernier point, il faut s’assurer que la solution d’hyper-convergence envisagée puisse parfaitement s’intégrer à des solutions de protection des données tierces et dans le cas d’organisations disposant de sites distants, que la technologie ‘Software-defined’ embarquée dans les ‘appliances’ soit également disponible pour un déploiement ‘à la carte’ sur les plateformes serveurs x86 de son choix.

En résumé, les solutions d’hyper-convergence présentent des arguments convaincants. Elles ont l’avantage de s’inscrire dans la tendance du ‘Software-defined’, avec en plus, une pré-configuration de la solution en usine, et avec un certain degré de personnalisation en fonction des besoins. Elles sont le choix idéal pour les organisations disposant de peu de ressources IT, souhaitant un déploiement rapide d’une nouvelle infrastructure virtualisée, le tout à un coût maîtrisé.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index