HPC dans le cloud – Les éditeurs sur la pointe des pieds
By   |  November 29, 2013

Calcul de structure dans le cloud via l’interface du logiciel d’architecture Revit d’Autodesk.

(Cet article fait partie de notre dossier HPC Dans Le Cloud)

Reste enfin la question toujours délicate des licences logicielles. Le volet applicatif a longtemps été la pierre d’achoppement entre les opérateurs de services cloud et les éditeurs d’applications. Ces derniers, soucieux de protéger leurs ventes, ont freiné des quatre fers sur la facturation à l’usage. C’est la raison pour laquelle les grandes applications Open Source ont été les premières à pouvoir être utilisées à distance. OpenFOAM, BLAST, NAMD, etc., toutes ou presque figurent aux catalogues des fournisseurs de calcul dans le nuage. Pour les solutions commerciales, les possibilités offertes dépendent du degré de maturité de l’éditeur vis-à-vis du cloud, le mode le plus courant restant le BYOL (Bring Your Own Licence).

Outre le paiement à l’utilisateur nommé et/ou au CPU, l’éditeur COMSOL demande par exemple à ses clients de souscrire une “Floating Network License” pour pouvoir déployer ses logiciels sur Amazon EC2 ou Extreme Factory. CD-adapco, pour sa part, propose trois types de licences pour le cloud. Le premier est un système de jetons, les Power Tokens, dans lequel un jeton correspond à un job STAR-CCM+ ou STAR-HPC traité par un CPU. Il faut donc transférer à son fournisseur autant de jetons que nécessaire pour lancer la simulation sur ses serveurs de calcul. La licence Power-Session, deuxième option, autorise l’utilisation d’un nombre non limité de cœurs de calcul pour STAR-CCM+, à un prix négocié à l’avance. Enfin, la licence Power-On-Demand est la plus proche d’une utilisation cloud puisque l’usage de l’application concernée est facturée à l’heure et ne dépend ni du nombre de cœurs, ni du nombre de processus.

Dominique Lefebvre, Chef de produit chez ESI Group, préfère quant à lui sélectionner ses partenaires pour le cloud : “Nous ne collaborons qu’avec les fournisseurs du domaine HPC. Je fais une vraie distinction entre les acteurs du cloud public comme Amazon et les offres de type Extreme Factory de Bull. On n’aurait aucun problème à proposer nos logiciels sur EC2, mais on a besoin de collaborer avec les opérateurs de cloud et d’être surs que nos solutions seront convenablement installées, fonctionneront correctement et bénéficieront d’une infrastructure solide permettant une exploitation satisfaisante. Le cloud computing, ce n’est pas simplement exécuter des calculs. C’est aussi pouvoir visualiser les données à distance. Le nuage n’est en effet véritablement intéressant que si on n’a pas besoin de rapatrier la totalité des résultats. Il faut donc, derrière nos outils, une infrastructure qui permette ce genre de choses, ce qui nous amène à collaborer avec des opérateurs comme Bull ou OVH / Oxalya pour valider que toute la chaîne de calcul fonctionne bien, y compris le volet visualisation.

Les fournisseurs français de HPC à la demande ont bien compris cette problématique. Ils en ont même fait un différenciateur marketing face aux clouds publics. Oxalya a par exemple développé une compétence de pointe en visualisation avancée dans le cadre du projet Collaviz. L’objet de cette initiative, qui a mobilisé 16 partenaires pendant 42 mois, était de mettre en place des outils de visualisation autorisant les travaux collaboratifs à distance sur des modèles 3D complexes. On a ainsi pu démontrer la faisabilité d’une collaboration réellement opérationnelle entre une équipe basée à Londres, dans une cave de réalité augmentée, et une autre à Rennes, dans le même contexte. Suite à ces recherches, Oxalya a directement intégré ces fonctions de visualisation distante au portail d’accès à sa plate-forme HPC, HPCDrive.

Bull n’est évidemment pas en reste. Son logiciel Extreme Factory Remote Visualize (XRV) autorise un affichage 3D de haute qualité, adapté aux bandes passantes inhérentes aux utilisations en mode cloud. “Nous estimons que disposer d’une telle brique de visualisation distante est la condition sine qua non pour se positionner sur le marché HPC” explique Marc Levrier. “Nous avons d’ailleurs développé tout un savoir-faire sur l’exploitation des GPU de notre datacenter ce qui nous permet d’assurer un affichage distant performant, avec un partage des ressource graphiques entre utilisateurs qui rentabilise l’investissement initial sur ces processeurs graphiques très coûteux.” C’est d’ailleurs cette compétence en affichage distant qui a poussé Dassault Aviation à exploiter la plateforme de Bull, non pour remplacer son cluster de calcul interne mais justement pour la visualisation à distance de ses simulations.

Paradoxalement, ESI Group est un des éditeurs les plus présents sur les grands services de cloud publics. Après avoir acquis la marque OpenFOAM, c’est lui qui assure le financement de l’OpenFOAM Foundation. “OpenFOAM se prête naturellement au cloud computing” explique Dominique Lefebvre. “C’est même une situation qui nous échappe un peu car pratiquement tous les fournisseurs de cloud positionné sur le calcul scientifique l’installent d’eux-mêmes. Il y a une utilisation certaine de ce logiciel mais qu’on ne maîtrise pas. Alors, on essaye de s’assurer que les versions déployées sont proprement installées et maintenues.

Autre éditeur à avoir pleinement intégré la composante cloud dans sa stratégie produit, Autodesk s’appuie sur Amazon EC2 pour proposer des fonctions de simulation à distance qui complètent ses logiciels de manière quasiment transparente. Pour le secteur du bâtiment, il propose notamment Structural Analysis, un service de calcul de structure déporté appelable directement depuis le logiciel de conception 3D Revit. Les utilisateurs d’AutoCAD disposent quant à eux d’une fonction de raytracing à distance qui permet de générer des images photoréalistes d’un bâtiment en cours de conception, sans mobiliser la puissance de l’infrastructure interne. Si la puissance requise est sans doute plus faible que pour un calcul de crash-test automobile, le gros intérêt de l’approche Autodesk est qu’elle permet aux ingénieurs d’utiliser le HPC dans le cloud pratiquement sans le savoir. Et, depuis le lancement de ces premières offres, l’éditeur multiplie les fonctions basculées sur le cloud, comme Energy Analysis pour le calcul des niveaux de consommation énergétique d’un bâtiment ou Green Building Studio qui permet de réaliser une optimisation du design à partir de ces calculs.

Les ingénieurs en mécanique qui utilisent le logiciel de CAO Inventor ont aux aussi accès à des services de calcul d’optimisation dans le nuage, cette fois avec une approche un peu différente. Dans un premier temps, le concepteur définit les contraintes à appliquer sur sa pièce ou son assemblage, le coefficient de sécurité désiré et les matériaux à employer. Ensuite, il lance l’optimisation du design. Le logiciel va alors calculer de multiples configurations dans le cloud puis présenter à l’utilisateur la pièce la plus proche de l’optimal répondant à ses contraintes.

Au terme de notre enquête, une conclusion s’impose : si le HPC dans le cloud reste encore un marché de niche, il est néanmoins est en train de se structurer. Pour un certain nombre d’utilisations, le calcul à la demande est d’ores et déjà une alternative viable. Quelle place prendra-t-il par rapport à l’approche in-house traditionnelle ? Il est trop tôt pour le dire. Pour des calculs épisodiques ou exceptionnellement gourmands, la proposition paraît idéale. Pour des besoins plus récurrents, les contraintes restent importantes et l’avantage financier moins tranché. C’est finalement aux utilisateurs et à leur direction financière, chacun en fonction de ses besoins spécifiques, de faire du HPC dans le cloud le modèle de calcul de l’avenir ou une simple extension du calculateur maison.

(Dossier HPC Dans Le Cloud : article précédent)

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index