La virtualisation de la puissance de calcul
By   |  September 20, 2015

Bénéfice n°1 : Performance – Tout comme dans le cas des usages Cloud, le recours à une puissance de calcul virtualisée sans limite repousse le champ des possibles. Sur des calculs hautement parallélisés, les performances peuvent être multipliées par un facteur 100 !

Bénéfice n°2 : Compétitivité – les gains obtenus vont au-delà des gains de productivité. Cela se traduit par un regain immédiat en termes de compétitivité avec des ressources qu’un entreprise n’aurait pas les moyens de s’offrir en interne.

Bénéfice n°3 : Innovation – Mieux encore, l’accès à des ressources sans limite permet d’accroître de façon exponentielle les capacités d’innovation d’une entreprise délivrée des freins de son infrastructure matérielle, logicielle et infrastructure, en donnant à ses concepteurs et développeurs les moyens de leur imagination et créativité.

Les applications nécessitant du calcul à haute performance (appelé aussi calcul intensif ou HPC pour High Performance Computing) sont de plus en plus nombreuses. CAO, simulation des matériaux, création numérique HD, gestion de grosses volumétries de données… elles concernent aujourd’hui un large éventail d’activités tant dans le secteur académique que privé. Jusqu’ici, pour obtenir la puissance nécessaire à ces applications, il fallait multiplier les serveurs de calcul. Cette époque est révolue. Désormais, les accélérateurs parallèles permettent d’atteindre des niveaux de performances extrêmes avec une densité, une fiabilité et un coût incomparables.

Le secret du calcul intensif virtualisé : la parallélisation
Quel que soit le type d’accélérateur, le principe est le même : ils parallélisent les tâches répétitives. Cette parallélisation aboutit à des facteurs d’accélération pouvant atteindre 100x sur certaines applications.

Les technologies de virtualisation s’étendent aux accélérateurs graphiques
L’écosystème de technologies NVIDIA GRID exploite la puissance des processeurs graphiques NVIDIA pour accélérer une grande variété de jeux, d’espaces de travail et d’applications en réseau, pour tous les utilisateurs. Les GPU NVIDIA GRID offrent la meilleure expérience utilisateur avec des capacités graphiques incomparables, aussi bien pour les entreprises que pour les fournisseurs de services.

Une puissance de calcul illimitée
Avec l’intégration des technologies « GPU passthrough » et « virtualGPU » de NVIDIA, de plus en plus d’entreprises s’interrogent sur l’opportunité de virtualiser les stations de travail au sein de serveurs dans les datacenters. L’objectif n’est pas de remplacer toutes les stations de travail physiques, mais plutôt d’apporter des solutions complémentaires pour consolider les équipements les moins utilisés et concrétiser de nouveaux scénarios. Cette virtualisation permet notamment de conserver les données les plus sensibles dans le datacenter et d’éviter échanges et transferts risqués, de mieux appréhender les pics d’activité en jouant sur l’élasticité des VM, et surtout de matérialiser toutes sortes de scénarios mobiles où l’on est amené à montrer/animer/éditer des modèles en 3D depuis des tablettes ou des ordinateurs nomades.

Nvidia GRID : une offre de virtualisation de puissance de calcul mature
Les capacités de virtualisation GRID de Nvidia permettent de partager simultanément des ressources GPU entre plusieurs utilisateurs. Ses capacités de streaming assurent un affichage rapide à faible latence et facilitent la mise en réseau des centres de données. L’environnement logiciel NVIDIA GRID comprend deles bibliothèques de virtualisation GPU, de mise en réseau et de gestion de session permettant à des utilisateurs multiples d’utiliser des jeux et les applications graphiques intensives grâce à la puissance partagée de plusieurs GPU. NVIDIA GRID accélère la capture, une compression efficace, un streaming rapide et un affichage à faible latence de jeux et d’applications professionnelles à hautes performances.

Nvidia GRID vGPU pour l’accélération GPU des applications et bureaux virtuels
La technologie vGPU accélère également les bureaux virtuels et les applications en conservant le moteur de calcul et de rendu sur un serveur ou un datacenter vers n’importe quel utilisateur se trouvant sur le réseau. Ce modèle est finalement proche du streaming qui a révolutionné l’industrie du cinéma et de la musique. L’environnement logiciel GRID vGPU apporte tous les avantages de l’accélération graphique matérielle aux solutions de virtualisation professionnelles. Cette technologie partage les ressources d’un même GPU entre plusieurs utilisateurs et procure aux bureaux virtuels des performances graphiques haut de gamme dignes d’un PC en local. Cette technologie transmet les commandes graphiques de chaque machine virtuelle directement au GPU, sans passer par l’hyperviseur. L’accès au matériel GPU est découpé en plusieurs opérations simultanées pour accélérer le partage en matière de virtualisation graphique.

La virtualisation des stations de travail
La notion de virtualisation des stations de travail a le mérite de défricher le terrain et d’encourager les éditeurs de logiciels de CAO, d’animations 3D et de montage de films à se pencher sur l’avenir de leurs outils dans un univers qui commence à peine à pratiquer leur virtualisation mais leur promet déjà un futur dans le Cloud. On dispose depuis plusieurs années de nombreuses références d’architecture pour la virtualisation des « desktops », essentiellement à des fins bureautiques. Ces références ont été bien adoptées par le marché. Elles donnent une vision très claire du nombre d’utilisateurs supportés, de la montée en charge, etc. La question qui vient naturellement derrière, c’est comment en faire autant pour les utilisateurs qui ont besoin de capacités de calcul importantes et surtout de travaux graphiques intensifs.

Le complément naturel de la virtualisation des serveurs et de la puissance de calcul
Depuis plusieurs années, des acteurs comme Citrix et VMware mais aussi Nvidia et AMD, cherchent à permettre à la virtualisation d’accéder directement aux GPU (GPU Pass-Through) et même de distribuer dynamiquement la puissance graphique demandée sur plusieurs GPU entre différentes VM (Virtual GPU). Aujourd’hui, ces technologies arrivent vraiment sur le marché et deviennent stables. Désormais ces technologies sont prêtes aussi bien au niveau des GPU, des drivers que des hyperviseurs. Reste que l’on peut avoir sous la main toutes les pièces d’une voiture, ça ne fait pas pour autant une voiture ! Intel, Citrix, VMware, et Nvidia ont œuvré ensemble pour mettre au point des processus de certification.

Des contraintes précises
Les contraintes sont très différentes de ce que l’on connaît aujourd’hui en matière de virtualisation de DirectX pour des jeux ou de RemoteFX pour la vidéo et les applications 3D simples. Non seulement on a besoin de virtualiser aussi OpenGL mais on a surtout besoin de précision. Dans un jeu, ça n’est pas super important si la texture du mur n’est pas reproduite avec une fidélité totale, on peut se contenter d’approximation. Pour un architecte, ce qui est à l’écran doit refléter l’exacte réalité de ce qu’il va construire. Les certifications pour les univers virtualisés exige la même fiabilité, stabilité, et performance que celles des stations physiques, afin de prendre toutes ces qualités et de les virtualiser dans le datacenter.

Des challenges supérieurs comparés aux besoins VDI
La virtualisation des workstations soulève des challenges tout autres. Les besoins en matière de CPU, GPU et mémoire sont bien différents. Ces ressources sont littéralement dévorées par les applications typiques de CAD, d’animation 3D, de création d’effets spéciaux et autres tâches traditionnelles des workstations. Dès lors il devient beaucoup plus compliqué de les mutualiser. Les ingénieurs, architectes et infographistes utilisent depuis toujours des stations qui leur sont dédiées. En allant dans l’univers de la virtualisation, les ressources sont partagées entre plusieurs utilisateurs, mais il s’agit d’être certain que cela va fonctionner. C’est le fruit d’une analyse précise de comment chaque application fonctionne sur une workstation afin d’offrir des guides et des « best practices » aux clients qui leur permettront d’anticiper et de savoir exactement à quoi ils peuvent s’attendre en passant en mode « virtualisé » : quelles performances attendre en pratique, combien d’utilisateurs peuvent être supportés, etc.

Un nombre d’utilisateurs réparti différemment
Pour définir le nombre d’utilisateurs que vous pourrez mettre sur les machines, vous devez absolument connaître les applications utilisées (et ce qu’elles consomment), les travaux soumis à ces applications (et donc leur poids en mémoire et leur intensité de calcul), les besoins en I/O disques qui en découlent et bien d’autres facteurs. Dans une infrastructure VDI on peut supporter 50 à 60 utilisateurs aisément. Dans l’univers de la workstation on est plutôt sur 3, 4 voire une dizaine d’utilisateurs selon le logiciel utilisé et la complexité des workloads. La « Caractérisation » définit
en pratique le nombre d’utilisateurs que l’on peut servir selon le serveur que l’on met derrière, l’applicatif utilisé et le workload. Le coût initial d’un tel système est forcément plus élevé que l’acquisition de workstations individuelles. Mais les bénéfices sont suffisamment importants pour que le TCO se révèle plus avantageux à moyen terme.

Ces bénéfices sont :
1/ La sécurité : c’est la meilleure solution pour vraiment protéger les propriétés intellectuelles puisque l’on rapatrie toutes les données au coeur même du datacenter. Les clients de workstations sont vraiment préoccupés par leur propriété intellectuelle. En outre, nombre d’entre eux font appel à des « externes » à qui ils doivent donner accès aux workstations et aux données. Quand on crée une nouvelle voiture, quand on produit les effets spéciaux d’un film, ces informations ne doivent pas circuler. Il faut pouvoir contrôler qui y accède et limiter leur circulation. Avec la virtualisation, toutes les données sont de retour dans le dataCenter. Finalement seuls les pixels circulent.

2/ La flexibilité : en matière de déploiement, la souplesse et la flexibilité sont incomparables. On peut allouer/déployer une nouvelle station instantanément. En outre, on peut jouer avec l’élasticité. Les demandes, dans bien des domaines, ont des pics d’activité. Dans une infrastructure virtualisée, il est beaucoup plus facile de réattribuer les workstations et la puissance que l’on met derrière. Au moment de générer la séquence finale d’une animation 3D par exemple, on peut transvaser toute la puissance disponible le temps du traitement, puis de nouveau répartir la puissance sur plusieurs clients une fois le traitement finalisé.

3/ Un « management » supérieur. C’est le principe même de la virtualisation. On n’a plus une grande diversité de machines physiques à maintenir, tout devient centralisé et automatisable dans le datacenter. En outre cela permet un gain d’espace sur les bureaux ou encore une meilleure cohabitation des stations avec un environnement à risque (il est peu souhaitable d’avoir de puissantes workstations à côté de produits hautement inflammables).

4/ Une mobilité retrouvée. Le succès des workstations mobiles le prouve. On a aussi besoin de mobilité dans les domaines propres aux stations. La virtualisation permet de transformer des tablettes en écran d’affichage interactif utilisant le logiciel de conception en arrière-plan. En outre, à elles seules des considérations de protection des propriétés intellectuelles justifient les investissements nécessaires. La perte de séquences d’un film ou d’un design industriel peut ruiner une entreprise. Avec la virtualisation, tout reste dans le datacenter, rien n’en sort.

Une solution mais pas unique
La virtualisation n’est pas une solution « One Size Fits All ». C’est une solution qui convient à certaines circonstances. Si vous supprimez aux infographistes ou architectes leurs workstations pour des petites machines ou des clients légers, ils feront tout pour récupérer leur workstation au plus vite parce qu’ils aiment leur expérience utilisateur «totale». Pour que la virtualisation s’impose, leur expérience utilisateur ne doit pas être affectée. Elle doit être plus que similaire, elle doit être identique. Certes, la mobilité présente un attrait fort, mais on est contraint par les limites de la vitesse de la lumière et des réseaux. Il faudra faire des compromis. Toutefois, le message clé de cette virtualisation, c’est qu’aujourd’hui l’utilisateur n’est plus obligatoirement physiquement attaché à sa workstation. Il peut travailler d’un Coffee Shop, de la maison, voire même d’une tablette. Il peut surtout travailler là où l’inspiration lui vient. Et dans certains métiers créatifs, c’est un atout fondamental !

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index