Dell EqualLogic ps6210
By   |  June 22, 2015

Une baie de disques hybride capable de migrer les blocs disque les plus utilisés depuis les disques durs, sur des disques SSD à haute vitesse et faible latence.

La baie de disques EqualLogic ps6210xs de Dell est une baie hybride composée de disques durs conventionnels et de disques SSD. La raison d’être de ce type de baie hybride est de pouvoir migrer, les fichiers ou les blocs de disques sur les fichiers les plus sollicités sur des disques SSD dans des environnements logiciels ayant besoin de performances. Ce type de disque SSD possède non seulement un temps d’accès aux données (latence) plus court, mais aussi un temps de lecture/écriture plus rapide (IOPs) en comparaison aux disques conventionnels mécaniques.

Le modèle ps6210xs est équipé de 24 disques SAS de 2,5″ : 7 disques SSD 800 Go et 17 disques HDD 1.2 To à 10 000 tours/minute. Parmi les exemples d’utilisation emblématiques d’une telle baie figurent :

Les fichiers index d’une base de données. Ces fichiers sont extrêmement sollicités lors des lectures, écritures et recherches dans la base, beaucoup plus sollicités que les éléments de la base eux-mêmes. S’il y a beaucoup de personnes qui travaillent sur la base des fichiers augmentant les accès sur la base de données, ces fichiers index seront très fortement sollicités. Les déporter sur des disques SSD améliorera les performances générales de la base de données.

Le Virtual Desktop Interface « VDI », gère 2 types de données. Le premier type, c’est l’image de base du bureau virtuel. Cette image est très demandée par les utilisateurs, surtout au moment de l’heure d’ouverture de l’entreprise le matin et après l’heure du déjeuner. Le deuxième type de données concerne les fichiers d’applications utilisateurs; ils sont moins sollicités. Donc le partage de ces fichiers sur deux types de disques est souhaitable.

Des pages Web, surtout la page d’accueil (home page) qui est un passage obligé par tous les utilisateurs du site. Cette page peut être très lourde avec des fichiers imbriqués de type photo et/ou vidéo. Cette page est une excellente candidate, où on trouve très souvent des liens vers objets lourds (photos, vidéos), qui doivent se charger au même temps que la page d’accueil. Sur sites très fréquenté, ces objets lourds devront migrer sur les disques SSD, avec un temps d’affichage amélioré.

Que devrions-nous observer lors de l’utilisation de ces baies ? Au fur et à mesure que les zones d’I/O diminuent telle qu’elles puissent être concentrées sur les disques SSD, on devrait voir des diminutions de la longueur des files d’attente pour les I/O et de leur temps de latence, et en même temps une augmentation du nombre d’I/O par seconde (IOPS). Le désavantage des disques SSD est leur coût et leur petite capacité vis-à-vis ses disques durs. Du point de vue du coût, il y a deux moyens de l’apprécier, le coût au méga-octet ou le coût par IOPs.

La gamme des baies de disques ps6210 est composée de 6 modèles allant des baies tout HDD à des baies tout SSD en passant par des baies hybrides. Cette gamme vise grande variété de charges de travail entreprises, mais c’est évident que Dell a comme cible les entreprises ayant des charges de travail à haute performance.

Organisation des baies
Chacune des baies dans la gamme possède 2 contrôleurs, chaque contrôleur possède 2 ports Ethernet 10 GbE et 2 ports 10 GbE SFP+.

Les 2 alimentations sont placées à gauche et à droite ; les 2 contrôleurs sont l’un au-dessus l’autre au milieu.

L’architecture de ces baies à 2 contrôleurs et à multiples ports chacun, permet non seulement une redondance au niveau des chemins d’accès aux baies en cas de panne d’un composant dans le chemin d’accès ; mais aussi permets d’agréger les connexions pour augmenter la bande passante d’accès. Dans le cas agrégation, les deux connexions n’ont pas besoin d’être connecté au même contrôleur. Cette agrégation fonctionne aussi sous VMware, ainsi que le traitement des « jumbo frames ».

La connexion des NICs aboutissent sur 2 contrôleurs différents.

Le « Failover Vertical », défini par le fait qu’un des deux chemins d’accès à la baie devient inopérant. L’accès à la baie est garanti par le contrôleur redondant. Pour que cet accès soit réalisé sur le contrôleur redondant, le port Ethernet du contrôleur actif doit correspondre au même port sur le contrôleur passif attaché à la même baie. L’adresse IP du port sur le contrôleur actif est transférée sur le même port du contrôleur passif par voie de communication interne.

Vertical « FailOver » : Avant incident, le chemin d’accès 1 est actif, ainsi que le contrôleur gris foncé. Apres problème sur le chemin d’accès 1, le contrôleur 1 reste toujours actif mais le chemin d’accès passe par le contrôleur 2. Par chemin interne de la baie, les 2 contrôleurs communiquent (flèche jaune).

De multiples baies peuvent être connectées entre elles en chemins indépendants permettant la manipulation d’une baie sans impacter les autres.

Connexion de 3 baies avec chemins redondants et indépendants et montrant l’organisation des baies en Groups, Pools et Membres.

L’organisation logique de plusieurs baies est hiérarchique. A l’initialisation de la première baie, un Group, un Pool et un Membre (baie physique) sont définis. A l’addition de baies supplémentaires, elles sont soit ajoutées aux Groups ou Pools déjà définis ou de nouveaux Groups ou Pools sont créés. Chaque Group possède une adresse IP, c’est la seule adresse connue du serveur ; chose importante parce que ça permet la manipulation des baies sans changer des paramètres sur les serveurs.

Le concept de base de l’organisation des LUNs/volumes sur ces disques hybrides est que chaque LUN se trouve distribué sur tous les disques de la baie/Membre, autrement dit chaque LUN/volume recouvre les différents types de disques, HDD et SSD ; ce qui permet la migration des blocs d’un type de disque à un autre. Pour les baies hybrides, l’organisation des disques est forcée dans un Raid 6 accéléré. Pour les baies non hybrides, les Raids disponibles sont Raid 10, Raid 50, Raid 6.

Le Pool est à la base de l’organisation des volumes. Si un Pool ne contient qu’un seul Membre, les volumes sont distribués à travers les disques de ce Membre. Dès qu’un deuxième disque est ajouté au Pool et mis online, les LUNs se trouvant sur le 1er Membre sont redistribués automatiquement sur les 2 Membres. Cette fonction de redistribution automatique et transparente avec l’ajout d’un deuxième disque s’appelle « Scale Out » et elle est importante. Dans un dans un contexte de VDI elle permet l’ajout de nouveaux utilisateurs sans interrompre l’exploitation.

En natif, la baie fonctionne de manière telle que les volumes crées sur la baie peuvent être rattachés à un ou plusieurs serveurs. Dans le cas de rattachement à plusieurs serveurs, c’est au logiciel serveur de gérer les conflits d’écriture sur le volume.

Architecture des contrôleurs
Load balancing (équilibrage de charge)

  • NLB : gère l’assignation de la connexion de chaque disque iSCSI aux ports Ethernet à l’intérieur d’un Pool. En supposant plusieurs ports Ethernet actifs, Au et à mesure que les charges varient parmi les ports actifs, les connexions sont redistribuées. Cette redirection est utilisée à l’intérieur d’un Group pour permettre le serveur d’établir nécessaire sans faire de mis à jour manuels de toutes les adresses IP qu’utile le Group. Ça permet aussi la migration transparente des Membres d’un Pool à un autre, ou d’entrée/sortir du Group.
  • CLB : gère l’utilisation de la capacité disque à l’intérieur d’un Pool. Au et à mesure que les volumes sont ajoutés ou supprimés dans un pool il assure que la capacité relative des Membres du Pool reste cohérent.
  • APLB : gère la distribution des IOPs à l’intérieur d’un Pool. Il opère sur les ressources dans un Pool en s’ajustant dynamiquement aux charges en temps réel à un niveau sous-jacent des LUNs/volumes. La gestion du tiering sous niveau, à l’intérieur d’un LUN/volume, dans un environnement hétérogène ou l’élimination des points chauds dans un environnement homogène. Il fonctionne en analysant les temps de latence des Membres dans un Pool pour déterminer s’il existe une différence > 20ms entre les temps maximum et minimum. Si oui essaye d’identifier les charges en déplaçant les données avec des grands taux d’E/S aux Membres moins chargés, ceux avec un temps de latence inférieur.

Au moment de la définition des volumes, un espace est réservé pour les snapshots, cet espace est configurable par défaut pour tous les volumes, ou soit volume par volume ; il est aussi modifiable dynamiquement pendant son utilisation. Les volumes sont protégés contre la suppression, impossible de les supprimer sans d’abord les mettre offline.
L’agrégation de connexions multiples, ainsi que les «jumbo frames» sont aussi disponibles sous VMware.

Sous VMware la baie de disque peut fonctionner de deux manières. La première c’est que les volumes définis peuvent être attachés à un ou plusieurs VM, similaires au cas natif. La deuxième manière c’est qu’un « Datastore » de VMware peut être crée sur la baie.

Deux logiciels gèrent la baie : le Host Integration Tools qui gère la baie à travers navigateur web utilisant Java et qui est utilisé pour gérer les volumes, snapshots…. Le deuxième outil est SAN Headquarters 3.0 qui suit les transactions, crée des tableaux de bord numériques et graphiques en temps réel. La baie est aussi pilotable via TELNET.

Dix volumes de taille 1 To vient d’être définis dans le Group : PCEgroup1. Les choix dans le menu à gauche permettent de manipuler les volumes, contrôler l’accès, supprimer, créer et modifier la politique des snapshots, restauration des volumes,…

Organisation des configurations des tests

Nous avons effectué des tests de migration des fichiers depuis les disques durs conventionnels aux disques SSD en fonction des IOPs (nombre d’entrées/sorties par secondes). Les tests ont été réalisés avec IOmeter. Pour préparer les tests, 10 fichiers de 1To étaient écrits, en séquentiel, sur la baie par IOmeter.

La plateforme de test s’organise en 2 volets. Une connexion directe en 18 Go Ethernet au T620 de Dell sous Windows Server 2012 pour les tests de performance ; une deuxième connexion au T620 sous VMware ESXi pour regarder l’attachement d’un volume iSCSI à une VM et la création d’un Datastore sur la baie. Les deux types de connexion ont été réussies sans problèmes.

Dans IOmeter le positionnement des 10 Workers, un par fichier, écrivant en séquentiel les fichiers en blocs de 4K.

Lors de cette phase d’écriture, nous avons pu constater que toute l’activité était concentrée sur les disques SSD ; occasionnellement on voyait une activation des disques durs due à la migration des fichiers écrits sur les disques SSD aux disques durs.

Une fois les 10 fichiers de 1 To écrits, nous avons procédé à construire un Baseline (valeurs de référence) pour la lecture en mode aléatoire de l’ensemble des fichiers pour la profondeur des files d’attente « Queue Depth », les IOPs, et les temps de latence entre lectures de la manière suivante :

Un processus « 1 Worker » était assigné par fichier avec une file d’attente à la lecture ne dépassant pas un I/O en attentent, pour la lecture de chaque fichier sur TOUTE sa longueur en mode aléatoire.

Une fois le Baseline établi, nous avons procédé aux opérations suivantes de lecture des 10 fichiers simultanément, en mode aléatoire :

  • Des lectures sur toute la longueur des 10 fichiers, mais avec un Queue Depth (I/O en attente) de chaque Worker égale à 10.
  • Des lectures sur toute la longueur des 10 fichiers, mais avec un Queue Depth de chaque Worker égale à 20.
  • Des lectures concentrées sur 5 Mo de la longueur des 10 fichiers, mais avec un Queue Depth de chaque Worker égale à 10.
  • Des lectures concentrées sur 5 Mo de la longueur des 10 fichiers, mais avec un Queue Depth de chaque Worker égale à 20.

IOmeter, le fichier de configuration avec 10 Workers lançant 10 lectures aléatoire simultanément, chacun sur une zone de 5 Mo.

Ces lectures concentrées sur 5 Mo doivent augmenter les opérations E/S sur un petit nombre de blocs par rapport aux autres blocs de ces fichiers. En conséquence ces blocs actifs doivent migrer sur les disques SSD, qui doivent donner une diminution du Queue Depth et du temps de latence, et en même temps une augmentation des IOPs.

SAN HQ, les graphiques de performance. Graph 1 : Estimation dans le temps du charge de travail des IOPs qui reste à 100% ; Graph 2 : Estimation dans le temps du maximum des IOPs ; Graph 3 : Le nombre des IOPs en fonction du temps ; Graph 4 : Taille moyenne des blocs d’E/S, 4ko ; Graph 5 : Temps moyenne des latence, nous voyons une augmentation sur la droite, mais la baie prend facilement la charge ; Graph 6 : Taille moyenne de la file d’attente sur la baie.

San HQ peut aussi fourni des informations sur chacun des disques dans la baie : moyenne des IOPs, les taux de lecture et d’écriture, taille de la file d’attente,…

SAN HQ, détail de chaque disque. La moyenne des IOPs, les taux d’écriture et de lecture, et les profondeurs des files d’attente.

En observant les résultats des tests, ils montrent bien l’effet de l’ajout des disques SSD dans la baie.

En analysant le tableau, la ligne 1 du tableau étant le Baseline, tous les chiffres doivent être comparés aux chiffres de cette ligne.

Chiffres de performance.

Analyse des résultats
Explication de la légende du tableau et du graphique :

1TB Q1 : Lecture aléatoire sur zone de 1 To sur les 10 fichiers simultanément par les 10 Workers, où chaque Worker lance une seule lecture à la fois.

1TB Q10 : Lecture aléatoire sur zone de 1 To sur les 10 fichiers simultanément par les 10 Workers, où chaque Worker lance 10 lecture à la fois.

5MB Q10 : Lecture aléatoire sur zone de 5 Mo sur les 10 fichiers simultanément par les 10 Workers, où chaque Worker lance 10 lecture à la fois.

5MB Q20 : Lecture aléatoire sur zone de 5 Mo sur les 10 fichiers simultanément par les 10 Workers, où chaque Worker lance 20 lecture à la fois. Au Baseline

1TB Q20 : Lecture aléatoire sur zone de 1 To sur les 10 fichiers simultanément par les 10 Workers, où chaque Worker lance 20 lecture à la fois.

Comparé au Baseline :
Sur la ligne 2 du tableau en dépit d’une augmentation des lecteurs par un facteur de 100, le Queue Depth reste constant à environs 5, ainsi que le temps de latence. Par contre le nombre d’IOPs augmente par 20%.

En regardant le graphique nous voyant très clairement qu’au fur et à mesure que nous augmentons le Queue Depth par Worker et en diminuant la zone lue que le Queue Depth moyen sur la baie diminue très fortement (colonnes bleus) et au même temps les IOPs sur la baie augmentent de 50% (colonnes rouges).

La baie ps6210 comporte plusieurs nouveautés logicielles et matérielles. En matière logicielle, c’est la version 7, la première version à 64 bits qui introduit des contrôles d’accès à base de profils et de règles. En version précédente chaque LUN/volume n’était configurable qu’individuellement, maintenant si changement, le changement peut être fait une seule fois et applicable à tous les volumes.

Sur la partie matérielle il y a désormais 24 disques par baie, et le double support du Gigabit et du 10 gigabit Ethernet, intéressant pour les entreprises en train de revoir leur infrastructure. La quantité de mémoire cache sur les contrôleurs a été doublée pour passer de 8 à 16 Go de mémoire non volatile. Le type de mémoire a aussi évolué de DDR-2 à DDR-3 et a été multipliée par 4, le Raid 5 était éliminé en faveur du Raid 6, le Raid 50 étant toujours disponible, et les blocs de taille 512 octets et 4Ko sont supportés.

Attention toutefois : VMware ne supporte que les blocs disque de 512 octets et pas les blocs disque de 4 ko. A ce jour la compression et la déduplication manquent au produit, cependant après le rachat de Ocarina Networks par Dell, justement pour ces technologies, on pourra espérer que l’intégration se fera bientôt.

Conclusion
Ces baies de disques peuvent être intéressantes dans une entreprise où il y a des fortes sollicitations dans des contextes exigeant des performances accrues concentrées dans des environnements logiciels tels que cités au début de cet article. Ces baies étant en outre fortement automatisées, elles n’exigent pas une connaissance approfondie en matière d’administration, et sont donc idéales pour des équipes informatiques de taille réduite.

Prix : 77,527 € ht, incluant 3 ans de garantie 24h sur 24, 7j sur 7, avec intervention sur site en 4h. Un financement est possible via Dell Financial Services.

D’autres modèles dans la gamme sont le PS6210S Ultra High Performance avec 24 disques SSD de 400Go à 106,811 € ht et le PS6210E High Capacity avec 24 disques HDD de 2To à 34,289 € ht.

Tableau : la gamme Dell EqualLogic PS6210

Model Description HDD Type HDD Qty List Price from
PS6210S Ultra High Performance 400GB SSD HDD 24 € 106,811
PS6210X Mainstream Performance 600GB 10K SAS 2.5″ 24 € 33,371
PS6210XS Ultra High Performance Hybrid Solid State 1.2TB 10K SAS 2.5″ and 800GB SSD 17 and 7 € 77,527
PS6210XV High Performance 300GB 15K SAS 2.5″ 24 € 33,251
PS6210E High Capacity 2TB 7.2K NL SAS 3.5″ 24 € 34,289
PS6210XV 3.5” High Performance 3.5” 600GB 15K SAS 3.5 24 € 32,849

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index