Stockage Flash L’ultime frontière ?
By   |  June 21, 2015

Le stockage Flash n’en finit pas de parler de lui. Hors de prix il n’y a pas si longtemps, les constructeurs affirment désormais que l’union du capacitif et de la performance n’est désormais qu’une question de mois. Mais parle-t-on bien de la même technologie ? Décryptage.

Impossible désormais de ne pas tenir compte de la technologie Flash dans tout projet d’équipement doté d’un volet stockage. Mais c’est oublier un peu vite que cette expression recouvre plusieurs familles de produits, qui ont chacune leurs spécificités et des scénarios d’usage privilégiés.

Selon plusieurs études menées par IDC et Grtner, au cours des cinq prochaines années, ce sont plus de 95% des investissements IT qui seront consacrées à l’infrastructure réseau et stockage. Cette dernière est en pleine phase de mutation. Composée jusqu’ici majoritairement de disques mécaniques, les besoins en matière d’accés aux données exigent beaucoup plus de performances, d’évolutivité et l’agilité. Des solutions de stockage hybrides ont d’abord fait leur apparition, pour concilier le meilleur des deux mondes : des espaces capacitifs à base d’une parte de disques mécaniques qui représentent encore aujourd’hui le meilleur ratio capacité/coût, et d’autre part de disques SSD aux performances hors d’atteinte pour les premiers. En 2014, les secteurs combinés des racks full Flash et hybrides représentaient 11,3 milliards de dollars dans le monde. A titre de comparaison, le chiffre d’affaires des serveurs en Europe de l’Ouest a représenté 3,7 milliards en 2014. Avec une progression estimée de ce marché à deux chiffres sur les cinq prochaines années.

Vers le tout flash ?
Dès l’an dernier, plusieurs acteurs ont généralisé des baies de stockage full flash dans leurs gammes. Avec des coûts en rapport. La finalité étant de gagner en performances sur des applicatifs critiques pour l’entreprise. Sites Web, bases de données et traitements Big Data et Internet des Objets sont les principales raisons d’investissement des entreprises aujourd’hui. Ces solutions offrent des performances au moins dix fois supérieures par rapport aux disques durs classiques. C’est aussi le segment le plus innovant. Tirant parti de ses spécificités en termes de débits et de latence, les constructeurs ajoutent des mécanismes pour en augmenter l’efficacité tels que le thin provisioning, la compression, la déduplication, les snapshots, le clonage et la réplication. Avec pour objectif avoué d’équilibrer l’écart de coût et capacité vis-à-vis du stockage classique.

Un écart moins grand qu’il n’y paraît
La légende veut que pour gagner dix fois en performances, le stockage Flash coûte dix fois plus cher. C’est vraisemblable si l’on s’arrête au seul coût d’acquisition. Pour pouvoir comparer valablement les deux approches, il convient de prendre en compte l’ensemble des coûts lors du cycle de vie de chaque technologie au travers de leurs TCO respectifs. Et là, l’écart se resserre nettement. La raison en est simple : les disques classiques ont une consommation énergétique propre nettement plus élevée, et doivent être en outre constamment refroidis pour les conserver à leur température de service. Ce n’est du reste pas le seul paramètre à prendre en compte. L’espace au mètre carré dans un datacneter coûte cher, très cher. Sur une période de trois ans, et en prenant en compte l’ensemble des paramètres précités, cela se traduit par un TCO estimé selon IDC inférieur de 80% dans le cas du Flash !

Les nouveaux acteurs rendent le stockage flash plus abordable
Seulement voilà, le ticket d’entrée pour acquérir des baies full Flash était jusqu’à une date récente, prohibitif. L’investissement pouvait atteindre plusieurs centaines de milliers d’euros pour disposer d’une baie de dernière génération. Ce marché émergent aux acteurs déjà bien installés à l‘instar d’IBM, EMC ou Nutanix et qui disposait de sa propre dynamique, est déjà en train d’être bousculé par de nouveaux entrants tels Atlantis Computing. Entreprise connue outre-atlantique et fraîchement débarquée en Europe, Atlantis Computing affiche des ambitions claires : proposer des appliances hyperconvergées intégrant serveurs et stockage Flash au coût le plus bas. Ce dernier revendique avec ses nouvelles appliances full flash Hyperscale de 12 To des coûts réduits de 50 à 90% en comparaison d’appliances hybrides telles la NX-3461 (308 000$) et NX-9240 (800 000$) de Nutanix. Dans les faits, Atlantis Computing commercialise son appliance Hyperflash à 78 000 dollars. Ce qui revient à 6,5 dollars le giga-octet, contre 25 et et 66 $/giga-octet. Une différence significative qui, sans pour autant faire basculer le marché du jour au lendemain, promet tout de même de susciter quelque interrogation chez les utilisateurs en train de faire leurs courses en stockage Flash. A juste titre.

Le petit secret des acteurs du stockage Flash
Il faut bien dire qu’Atlantis Computing, comme la quasi-totalité des acteurs de ce secteur, ont un petit secret sur lequel ils communiquent largement : la capacité « effective ». Retenez bien ce mot, car il représente l’écart entre capacité estimée et capacité réelle. En acquérant une appliance 12 To, si vous l’ouvrez, vous aurez beau compter et recompter, vous n’y trouverez pas 12 To de mémoire flash, mais entre 30 et 50% de moins, soit 6 à 8 Giga-octets réels, pour lesquels le qualificatif consacré est « raw ». Une appliance marketée et commercialisée avec 12 To n’aura dans les faits qu’une portion de ce qu’une entreprise croit acquérir. Ce n’est pas de la pub mensongère, mais une simple présentation différente, nous soutient-on. A condition d’en être conscient et informé.

Mécanismes d’optimisation
Comment font les constructeurs pour vendre moins de stockage Flash que ce que prétend leur plaquette ? Ils s’appuient en réalité sur une ribambelle de mécanismes dont le monde du stockage a le secret : thin provisioning et compression en sont les maîtres mots. En d’autres termes, ils appliquent un ratio de compression au doigt mouillé pour vendre 6 à 8 Gigaoctets réels, commercialisés comme 12 Go effectifs. C’est une règle qu’il vaut mieux connaître pour savoir ce que l’on achète…et pour relativiser les prétentions mirifiques des savants calculs en matière de TCO, lesquels se fondent sur des propriétés techniques irréfutables par ailleurs, mais dont les paramètres de calcul ne sont pas forcément comparables entre modèles de constructeurs différents.

StorTrends, l’autre trublion – objectif : 50 cents au giga-octet
On le voit, la course pour descendre en deça du seuil mythique de 1 dollar par giga-octet bat son plein. Et voilà qu’un autre acteur en embuscade, le géant américain American Megatrends, annonce tout de go une AFA (All Flash Appliance) pour viser cette fois-ci, 50 cents au giga-octet ! Son modèle StorTrends 3500i annonce 56 To de stockage extensibles à 256 Go. Ce modèle a la particularité d’être commercialisé en version hybride en entrée de gamme, et de pouvoir être mis à niveau en full flash. Destiné aux petites et moyennes entreprises, il utilise des disques classiques et des SSD flash en cache, un mécanisme de tiering automatique se chargeant d’offrir les meilleures performances aux données les plus sollicitées qui sont déportées sur les disques SSD. Et avec pour résultat des temps de latences de l’ordre de 3 millisecondes contre 10 ms pour les disques classiques. Le passage en full-flash permet de descendre à 1 milliseconde.

Les acteurs historiques contre-attaquent
HP n’est pas en reste, et n’a pas l’intention de se laisser couper l’herbe sous le pied de ce nouveau marché émergent. En témoigne l’annonce récente de son StorVirtual 4335, une appliance hybride qui affiche 12 fois la performance avec 90% de réduction énergétique pour 12,4 Téra-octets de capacité pour 59 000 dollars. A l’autre extrémité du spectre figure le MSA 2040 SAN, une baie de stockage 2U capable d’accueillir des SSD de 200, 400, 800 et 1,6 To chacun pour un total de 38,4 To raw, et commercialisée 25% moins cher que ses prédecesseurs. Le prix de départ de chaque SSD est de 1599$. Le MSA 2040 SAN dispose en outre de propriétés sophistiquées taillées pour l’intégration à une infrastructure d’entreprise, avec des fonctions matérielles de snapshots, réplication, copie de volumes et d’auto-encryption de volumes et de disques.

Plus haut, plus fort, plus loin : le flash pour le Big Data
Voici deux mois, Sandisk, l’un des acteurs historiques en matière de mémoire Flash, a fait une annonce qui a fait grand bruit en lançant son serveur de stockage InfiniFlash, qu’il destine aux marchés Big Data. Il faut admettre que le dimensionnement de l’InfiniFlash est en rapport avec l’objectif ambitieux du constructeur. Décliné en trois versions (IF500, IF700 et IF900), ce châssis 3U est bourré de cartes Flash – jusqu’à 64 – comportant chacune 8 To de Flash pour un total de 512 To.

Les datacenters s’y mettent aussi
Comme le souligne Pascal Cheyroux de Sandisk, la technologie flash est en train de s’imposer comme un élément à part entière des opérations exécutées quotidiennement dans les grands datacenters. De nombreuses entreprises cherchent à combler l’écart entre des processeurs de plus en plus rapides et les performances de stockage qu’offrent les disques durs classiques. Pour ce faire, ils adoptent la technologie flash, dont ils apprécient la rapidité et les performances. Cette évolution est d’ailleurs soulignée par le cabinet IDC, qui estime que l’année dernière, au moins la moitié des services informatiques (DSI) des grandes entreprises avaient déployé des serveurs et des baies de stockage compatibles avec la technologie flash pour gérer leurs charges de travail. IDC prévoit également que 80% des périphériques de stockage livrés en 2015 seront compatibles avec la technologie flash, ce qui permet d’affirmer sans prendre trop de risques que nous entrons dans l’ère du Flash-Transformed Data Center (FTDC).

Cette mutation s’explique en partie par l’entrée en force du cloud computing dans l’entreprise, avec à la clé une pression croissante sur les fournisseurs d’environnements cloud qui doivent fournir de solides garanties en matière de performances applicatives comme de prévisibilité. Ces tendances, auxquelles s’ajoutent l’analyse des Big Data, les médias sociaux et la mobilité, représentent autant de défis pour les DSI qui doivent suivre le rythme imposé par une forte demande et de lourdes charges de travail.

C’est la combinaison de ces défis qui annonce l’évolution des datacenters vers ce que nous appelons le « flash-transformed data center », où chaque étage adopte rapidement la technologie flash. Mais quelle est réellement la signification de cette transformation ? Quel en est l’impact pour les entreprises dont l’activité dépend du cloud ?

Une agilité en hausse pour une complexité accrue
En premier lieu, la technologie flash déployée dans les serveurs, les infrastructures de stockage et les appliances réseau assure un traitement plus rapide, ce qui se traduit par des analyses plus complexes, un niveau de sécurité accru et un meilleur respect de l’environnement. La technologie Flash accélère les performances des applications sur le cloud et permet de traiter de grands volumes de données sans être pénalisé par le ralentissement des opérations d’E/S lié aux goulets d’étranglement du stockage. Elle prend également en charge l’analyse du Big Data qui identifie des « modèles » à l’intérieur des données et produit des données exécutables pour l’entreprise.

C’est pourquoi les fournisseurs de services cloud (CSP) qui proposent une gamme de prestations professionnelles sous la forme de « logiciels en tant que service » (SaaS — Software as a Service) adoptent abondamment la technologie flash dont elles apprécient vélocité et les performances. Cette approche se traduit directement par une valeur ajoutée liée à la fourniture de services métier plus performants et plus rapides. Cette tendance va se s’accentuer, dans la mesure où un nombre croissant de datacenters externalisent un volume croissant de leur charge de travail chez des fournisseurs de service cloud extérieurs ou des hébergeurs mutualisés (colocation) via la technologie cloud aux fins d’hébergement ou de maintenance.

Sécurité et vélocité, les deux mamelles du datacenter de demain
En second lieu, la technologie Flash permet également d’améliorer la sécurité des entreprises en augmentant la vitesse à laquelle les données sont analysées. À l’âge de l’information, les menaces qui pèsent sur les actifs métier sont essentiellement numériques, et les diverses applications et systèmes de surveillance conçus pour lutter contre ces menaces partagent un même défi : un volume de données à analyser en augmentation constante et une fenêtre de réaction de plus en plus étroite. De plus, la technologie flash évite aux CPU les problématiques de sécurité et de conformité auxquelles sont confrontées les bases de données, ce qui réduit les délais d’analyse et accélère les réponses automatisées.

Le Flash, champion de la consommation énergétique
En dernier lieu, la consommation d’énergie est un autre bon point pour la technologie flash. Selon Michael Bell, vice-président de Gartner, « plus de 50% des centres de données consommeront plus de 6 kW par rack d’ici deux ans et ce nombre passera à 70% puis à 80% d’ici quatre ans en raison de l’augmentation de la densité affichée par les équipements informatiques ». Face de telles dépenses que Michael Bell qualifie de « fondamentalement insoutenable », il est possible d’inverser la tendance à l’augmentation constante des coûts d’infrastructure en déployant la technologie flash dans les datacenters. La technologie flash permet de réduire jusqu’à 90% la consommation d’énergie des datacenters à performances applicatives équivalentes tout en acheminant les données à un débit durablement supérieur. Elle évite d’utiliser des équipements informatiques gourmands en énergie, réduisant ainsi les besoins énergétiques du datacenter tout en maintenant, voire en augmentant, les performances des applications, et en abaissant leurs énormes coûts d’exploitation.

À ces différents titres, la technologie Flash constitue un élément moteur qui permet de transformer le datacenter pour qu’il soit en mesure de répondre à la prochaine vague d’exigences informatiques en accélérant les performances des applications d’entreprise et des bases de données, tout en mettant ces données plus rapidement à la disposition des entreprises.

C’est pour ces raisons que la technologie Flash va jouer un rôle décisif dans l’informatique de demain, à mesure qu’elle continue de s’imposer dans les environnements de serveurs et de stockage. À ce titre, elle aura un impact bénéfique sur toutes les grandes catégories de solutions d’entreprise et de cloud, tout en suivant le rythme d’évolution du monde des affaires d’aujourd’hui.

Des marchés en recherche de performances
On le voit, et n’en déplaise à ses détracteurs, le stockage flash a de très beaux jours devant lui. Si la grande majorité des espaces de stockages ne nécessitent pas des temps de latence de l’ordre de la milliseconde qu’offre la technologie flash, la bonne santé de certains secteurs en dépend. C’est le cas des référentiels de contenu, des médias et services de streaming, des grandes volumes de données à des fins d’analyse temps réel et les infrastructures web grand public à forte affluence. Un autre exemple cité par Pascal Cheyroux, directeur commercial Europe du sud de Sandisk concerne le marché de la vidéosurveillance. Pas la vidéo-surveillance conventionnelle, mais plutôt celle d’aéroports ou de ports entiers. Le recours à des dizaines de caméras 4K, devenues nécessaires par l’étendue de la superficie et pour être en mesure de zoomer sur un incident le cas échéant, impose de revoir le reste de l’infrastructure, insiste-t-il. La raison en est le délai d’accès aux données. Si le délai nécessaire à leur consultation dépasse celui de la purge automatique – et on parle de périodes de six mois – le résultat est contre-productif. Une infrastructure Flash permet de de descendre à quelques jours seulement.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index