L’UberCloud HPC Experiment vu de l’intérieur
By and   |  March 10, 2014

Jusqu’ici sujet de débats théoriques, le calcul intensif dans le cloud devient aujourd’hui réalité. Après avoir analysé (et démystifié) les traditionnelles questions qui y sont liées – performance, coût, licences logicielles, sécurité… – voyons quels progrès, quels challenges et quelles réalisations découlent de l’UberCloud HPC Experiment…

Wolfgang Gentzsch – Cofondateur, UberCloud HPC Experiment / Président, ISC Cloud.
Burak Yenier – Cofondateur, UberCloud HPC Experiment.

Economies, réduction du time-to-market, meilleure qualité des produits… les avantages du HPC pour les ingénieurs et les scientifiques dans les domaines de la recherche, de la conception et du développement ne sont plus à démontrer. Pourtant, deux études réalisées par le Council of Competitiveness américain, “Reflect” et “Reveal” [1], indiquent que seulement 10 % des entreprises utilisent des technologies HPC pour le développement de leurs produits. Ce qui signifie que plus de 90 % d’entre elles réalisent leurs prototypes virtuels ou leurs modélisations sur des stations de travail ou des ordinateurs portables. Il n’est dès lors pas étonnant qu’une majorité de ces entreprises (57 %) rencontrent des difficultés de conception dues à leur équipement logiciel et matériel. Un certain niveau de précision en géométrie ou en physique, par exemple, nécessite nettement plus de mémoire que ce que peut offrir un PC ou portable, même très bien dotés. Pour faire face à ce problème, deux solutions se présentent : l’achat de serveurs ou une solution Cloud.

De nombreux fournisseurs offrant désormais des gammes complètes de produits, de solutions et de services HPC, acquérir du matériel de calcul intensif n’est plus hors de portée des PME. Cela étant, posséder sa propre infrastructure HPC n’est pas nécessairement la meilleure solution en termes de rapport investissement / efficacité, en particulier parce que le TCO de tels équipements reste très élevé. En plus du coût de l’expertise, de l’équipement, de la maintenance, des logiciels et de la formation, l’acquisition d’un système HPC requiert souvent des procédures de décision longues.

Face à cela, l’alternative consiste à utiliser une solution Cloud qui permette aux ingénieurs et aux scientifiques de garder leur ordinateur habituel pour les tâches quotidiennes de conception et de développement, et de transférer les tâches les plus complexes et les plus lourdes vers le Cloud quand c’est nécessaire. Les utilisateurs ont ainsi accès à des ressources de calcul virtuellement illimitées, garantes de résultats de qualité. D’autant que, financièrement, une solution Cloud permet de transformer les investissements en charges, d’adapter les ressources aux besoins et, en un mot comme en cent, de ne payer qu’à l’utilisation.

1 – Qu’est-ce qu’un Cloud HPC ?

D’après le National Institute of Standards and Technology (NIST) américain [2], le Cloud est un modèle d’infrastructure qui permet d’accéder simplement à des ressources informatiques partagées et configurables (réseaux, serveurs, stockage, applications et services par exemple), à la demande et où que l’on se trouve, avec un minimum de gestion technique et d’intervention du fournisseur. Le modèle est décrit selon cinq caractéristiques principales (libre-service à la demande, accès réseau à haute bande passante, mise en commun des ressources, élasticité de l’infrastructure et mesure de l’usage). Trois catégories de service sont disponibles (Software as a Service (SaaS), Platform as a Service (PaaS) et Infrastructure as a Service (IaaS), et quatre modèles de déploiement sont proposés (Cloud privé, Cloud commun, Cloud public et Cloud hybride).

Les services Cloud de base répondent à une partie des besoins HPC, notamment ceux qui nécessitent peu de traitements en parallèle, tels que les études de paramètres, et peu de trafic I/O. Cela dit, la plupart des applications HPC ne peuvent s’accommoder de ces solutions basiques et requièrent des infrastructures capables d’accepter les charges de travail typiques des applications scientifiques ou d’ingénierie.

Nombreuses, par ailleurs, sont les applications distribuées qui ont été développées et optimisées pour des systèmes HPC spécifiques, avec souvent des communications intensives entre tâches parallèles. Pour fonctionner correctement au sein d’un Cloud HPC, elles requièrent des caractéristiques systèmes supplémentaires au niveau de l’infrastructure :

• Ressources matérielles importantes (capacity et capability), bibliothèque logicielle étendue, disponibilité d’environnements physiques ou virtuels selon les besoins en performances.

• Hautes capacités d’entrées / sorties, indispensables pour permettre aux applications IO-intensive de performer à leur maximum. pNFS peut par exemple constituer une bonne interface plug-and-play pour la plupart de ces applications. La conception du système de stockage a également beaucoup d’importance pour que le niveau de performance souhaitable soit atteint.

• Des connections réseau rapides entre les ressources Cloud haute performance et la station de travail de l’utilisateur sont également cruciales. Les résultats des simulations scientifiques ou d’ingénierie correspondent généralement à des volumétries de plusieurs dizaines de gigaoctets – jusqu’à atteindre quelques téraoctets. Dans ce contexte, la visualisation à distance, la compression ou l’envoi des données par disque dur sont des solutions éprouvées.

D’autres questions doivent toutefois être résolues pour qu’un Cloud HPC offre un niveau de performance et de flexibilité suffisant à des coûts raisonnables. Une analyse précise des besoins applicatifs est à ce titre indispensable pour évaluer la performance HPC réelle de l’offre considérée.

2 – La sécurité dans Cloud

La sécurité est une problématique fondamentale dans les déploiements Cloud, pour toutes les organisations quelle que soit leur taille. Soucieuses de protéger les “bijoux de la couronne”, les entreprises qui migrent vers le Cloud doivent porter la plus grande attention à la localisation physique de leurs données. Les aspects sauvegarde et récupération, audit et certification sont à ce titre essentiels, de même que la définition des autorisations d’accès aux données par le personnel technique du fournisseur. Atteindre un niveau de sécurité suffisant est une question de technologies mais également de confiance, de visibilité, de contrôle et de conformité aux normes les plus strictes – autant d’éléments qui dépendent à leur tour d’une gestion et de pratiques efficaces. En d’autres termes, la sécurité tient essentiellement au facteur humain, sachant qu’en envoyant des données ou des applications vers le Cloud, l’utilisateur en perd presque totalement le contrôle.

Nous sommes entièrement d’accord avec Simon Aspinall lorsqu’il déclare [3] que “comme dans tous les cas d’émergence de technologies qui bousculent les habitudes, on note un peu d’hésitations et de questionnements sur la façon optimale de faire fonctionner une organisation, qui continuent de freiner le développement du secteur. Ces questions, tout particulièrement en ce qui concerne la sécurité, sont étrangement similaires à celles évoquées autrefois à propos de l’Internet, du commerce en ligne ou même des téléphones portables. Les entreprises qui ne réfléchissent pas à cette dimension seraient bien avisées de le faire si elles ne veulent pas risquer d’être dépassées par celles de leurs concurrentes qui profitent déjà des avantages d’une solution Cloud. Comme pour toutes les grandes décisions, il faut bien comprendre les options disponibles, y prêter attention, définir le Cloud dont l’organisation a besoin et l’adopter au rythme le plus approprié.”

[Références]

[1] Council of Competitiveness, ‘Make’, ‘Reflect’, ‘Reveal’ and ‘Compete’ studies 2010.

[2] NIST Cloud Definition.

[3] Simon Aspinall, Security in the Cloud. Strategic News Service, Volume 16, N°39, 28 octobre 2013.

Navigation

<12345>

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index