L’UberCloud HPC Experiment vu de l’intérieur
By and   |  March 10, 2014

6 – Les case studies UberCloud HPC Experiment

Pour mieux illustrer la richesse et la diversité des travaux menés par les équipes de l’UberCloud Experiment, nous avons choisi de vous présenter six des 125 projets terminés ou en passe de l’être. Si la question vous intéresse, notez que la page Teams du site Web de l’UberCloud en présente beaucoup d’autres.

Equipe 1 : Analyse structurelle heavy-duty dans le Cloud

L’équipe était constituée de Frank Ding, ingénieur chez Simpson Strong-Tie, en tant qu’utilisateur final ; Matt Dunbar (SIMULIA Abaqus) en tant que fournisseur logiciel ; Steve Hebert (Nimbix) en tant que fournisseur de services ; et Sharan Kalwani, expert HPC alors en poste chez Intel. Les projets de l’équipe allaient de la résolution de l’ancrage mécanique de traction à la mesure de la capacité de charge de connecteurs en acier et en bois. Le cluster HPC de Simpson Strong-Tie étant de petite taille (32 cœurs), le besoin ponctuel de Cloud est fréquent. Pour ce projet, il était également critique de pouvoir gérer de gros transferts de données occasionnels et de visualiser le bon déroulement des simulations.

Equipe 2 : Simulation d’une nouvelle sonde médicale

L’utilisateur final concerné est une des plus importantes entreprises du secteur des instruments d’analyse. Cette société utilise l’ingénierie numérique pour le prototypage virtuel et l’optimisation de la conception de détecteurs et d’antennes pour l’imagerie médicale. Les autres participants de l’équipe étaient Felix Wolfheimer de Computer Simulation Technology et Chris Dagdigian de BioTeam, Inc, en tant qu’expert. Les ressources Cloud, pour leur part, ont été fournies par AWS.

L’utilisateur a régulièrement besoin de ressources de calcul conséquentes pour simuler les améliorations à apporter à ses produits. Toutefois, la nature sporadique de ces besoins rend l’investissement matériel difficilement défendable d’un point de vue financier. L’entreprise a donc investi modérément en acquérant un calculateur destiné à répondre aux besoins courants. Elle recourt également à des ressources supplémentaires disponibles à la demande pour améliorer la sensibilité des simulations et envisager des améliorations produit considérées jusqu’ici comme non testables.

L’architecture Cloud hybride lui a permis d’utiliser ses moyens de calcul propres en parallèle avec ceux d’Amazon Web Services. Le projet a tiré parti des capacités de scaling des instances Amazon EC2 et, dans ce cadre, divers scénarios de répartition des tâches de calcul en MPI ont été évalués. L’utilisation de MPI permet en effet de profiter de la large variété des configurations d’instances EC2. L’équipe a également testé Amazon EC2 Spot Market, grâce auquel les ressources Cloud peuvent être acquises aux enchères – d’où d’importantes économies possibles sur le coût horaire typique du calcul à la demande.

Equipe 8 : Simulation d’un séchoir pneumatique avec utilisation de gaz chaud pour l’évaporation d’eau sur un solide.

Cette équipe était composée de Sam Zakrzewski de FLSmidth, Wim Slagter d’ANSYS en tant que fournisseur de services, Marc Levrier de Serviware/Bull en tant que fournisseur de ressources et Ingo Seipp de Science + Computing en tant qu’expert HPC. Dans ce projet, des modèles CFD multiphases ont été utilisés pour simuler un séchoir pneumatique. Sur le serveur interne de l’utilisateur, le modèle de flux prend environ cinq jours pour aboutir à un scénario de chargement de particules réaliste (ANSYS CFX 14 étant utilisé en tant que solveur). Les simulations utilisent 1,4 million de cellules, cinq espèces et des pas temporels de 1 milliseconde pour une durée totale de 2 secondes. Pour l’utilisateur, la solution Cloud s’est traduite en des simulations plus rapides, grâce auxquelles il a été possible d’augmenter le nombre d’analyses de sensibilité. Elle lui a également permis de s’affranchir des problèmes d’infrastructure et, donc, de se concentrer intégralement aux problèmes d’ingénierie.

Equipe 40 : Simulation d’acoustique spatiale

Cette équipe rassemblait un ingénieur utilisateur final (anonyme) travaillant pour un fabricant d’électronique grand public, Antti Vanne, Kimmo Tuppurainen et Tomi Huttunen de Kuava (fournisseur logiciel) et les experts HPC Ville Pulkki et Marko Hiipakka de l’université d’Aalto en Finlande.

La perception de la direction du son est une expérience très personnelle. L’acoustique spatiale dépend de la forme du torse, de la tête et du pavillon auriculaire (fonction de transfert relative à la tête, ou HTRF). Pour produire des sons directionnels sur des casques audio, il faut utiliser des filtres HTRF qui “modélisent” la propagation du son dans le voisinage de l’oreille. Ces filtres peuvent être générés par la simulation numérique, mais les défis informatiques rencontrés sont énormes. Ce projet analysait la production rapide de HTRF en utilisant des simulations sur le Cloud. La méthode de simulation s’appuyait sur un solveur d’éléments frontières extrêmement rapide.

Equipe 58 : Simulation de soufflerie autour d’un vélo et d’un cycliste

Dans cette équipe, l’utilisateur final était Mio Suzuki, de Trek Bicycle ; le fournisseur logiciel et expert HPC était Mihai Pruna, de CADNexus ; le fournisseur de ressources était Kevin Van Workum, de Sabalcore Computing.

Le connecteur CAPRI to OpenFOAM et l’infrastructure Cloud de Sabalcore ont été utilisés pour analyser les flux d’air autour des itérations de conception réalisées par Trek Bicycle. L’objectif était d’atteindre une meilleure synergie entre les itérations CAO, l’analyse CFD et les ressources HPC à la demande. L’automatisation des itérations de modélisation couplée à la CFD a considérablement amélioré la productivité des ingénieurs et leur a permis de prendre des décisions techniques objectivement plus pertinentes. L’utilisation d’une solution Cloud pour répondre aux besoins de calcul de ces applications lourdes a par ailleurs réduit significativement les temps de rendu des itérations et le coût total du nouveau design étudié.

Equipe 118: Transfert thermique conjugué pour la conception de moteurs d’avions

L’équipe était constituée de Hubert Dengg (Rolls-Royce Germany) en tant qu’utilisateur final, Thomas Gropp et Alexander Heine (CPU 24/7) en tant que fournisseur de ressources, Wim Slagter (ANSYS) en tant que fournisseur logiciel et Marius Swoboda (Rolls-Royce Germany) en tant qu’expert HPC / CAE.

L’objectif de ce projet était de lier le code CFD d’ANSYS à un code propriétaire de modélisation par éléments finis. Le process de transfert thermique conjugué est très coûteux en termes de calcul, tout particulièrement lorsque l’application a besoin de modèles 3D-CFD de plus de 10 millions de cellules. Il a ainsi été considéré que le recours à des ressources Cloud pourrait nettement améliorer les temps d’obtention de résultats.

Deux problématiques distinctes ont dû être abordées. D’une part, faire travailler ensemble deux applicatifs d’origine différentes (avec, par conséquent, des modèles de licences a priori incompatibles). D’autre part, amener Fluent à tourner sur plusieurs machines lorsqu’il est appelé par le code FE. Après quelques ajustements, la procédure de couplage a donné les résultats attendus.

Du point de vue utilisateur, le recours à des ressources de calcul externes a présenté plusieurs avantages, notamment lorsque les ressources internes atteignaient leurs limites. Exécuter des modélisations de plus grande ampleur dans le Cloud (dans des délais plus courts) a également permis d’obtenir des résultats plus précis quant au comportement physique du système. L’utilisateur a enfin profité de l’expertise du fournisseur de ressources en matière d’installation de cluster, d’exécution d’applications MPI parallèles, de création de fichier hôte, de gestion des licences FlexNet et de préparation système pour l’accès direct au cluster.

Navigation

<12345>

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index