Vers l’infini et au-delà ! Le HPC au service de l’exploration spatiale
By   |  March 09, 2016

La contribution du HPC dans l’exploration spatiale est inestimable pour la simulation et visualisation de millions, parfois de milliards de données à partir d’un cadre temporel donné. Cela permet d’atteindre des ré- sultats dynamiques d’animation spectaculaires dans une fraction du temps qu’il fallait pour calculer une image statique seulement dix ans auparavant.

L’un de ces exemples extrêmes a été exposé par l’Agence spatiale européenne, ESA, montrant l’interaction simulée de vents solaires avec 67P/Churyumov-Gerasimenko, la fameuse comète ciblée par la mission Rosetta. Les conditions simulées correspondent à celles attendues à 1,3 ua du Soleil, près du périhélie, où la comète est très active – un taux de production de gaz de 5 × 1027 molécules/s est ici présumé. Le vent solaire approche par la gauche à ~400 km/s, transportant incrusté avec lui le champ magnétique interplanétaire d’une force d’environ 5 nT. La matière du noyau de la comète forme une vaste enveloppe, la coma, de plusieurs millions de km (non illustrée ici). Une partie des molécules de gaz neutre est ionisée par le rayonnement des UV solaires ou par échange de charges avec les particules du vent solaire. Les ions des comètes sont pris par le vent solaire approchant, un processus connu sous le nom de « chargement de masse » et provoque son ralentissement. Dans le modèle de simulation, suffisamment d’ions sont produits et pris par le vent solaire pour provoquer son ralentissement, allant de la vitesse supersonique à la vitesse subsonique, provoquant la formation d’un arc de choc à l’avant de la comète.

Simulation de la dynamique interne des étoiles et des exoplanètes géantes En vingt ans et ce depuis la découverte des premières exoplanètes dans les années 1990, les astronomes ont découvert presque 2 000 planètes en dehors de notre système solaire. Beaucoup sont connues sous le nom de « Jupiters chauds », planètes qui ont une taille identique à celle de Jupiter mais qui sont plus proches de leur étoile hôte, et par conséquent ont des orbites plus rapides et des températures à la surface bien plus élevées. Pour en savoir plus sur la dynamique interne des exoplanètes Jupiters chauds et de leur étoile, l’astrophysicienne Tamara Rogers et son équipe du laboratoire lunaire et planétaire de l’université d’Arizona ont mené une série de simulations révolutionnaires sur le superordinateur Pleiades, situé dans le département de la NASA Advanced Supercomputing (NAS), au Ames Research Center.

«La modélisation et la simulation sur des ordinateurs haute-performance sont des outils efficaces pour rechercher les processus dynamiques qui se produisent à l’intérieur des étoiles et des planètes », dit Rogers, maître de conférences à l’université de Newcastle, en Grande-Bretagne. « La compréhension de ces phénomènes peut nous aider à apprendre comment les Jupiters chauds se sont formés et comment ils influencent l’évolution des systèmes planétaires. »

Les simulations de l’équipe sur les Jupiters chauds – qui furent les premières à inclure des champs magnétiques – ainsi que leurs simulations sur les étoiles massives, peuvent aider les astronomes à interpréter les données collectées par des observatoires spatiaux tels les télescopes de la NASA : Kepler, Spitzer et Hubble. Par exemple, les découvertes de l’équipe pourraient aider à élucider des observations mystérieuses, comme par exemple le fait que les planètes tournant autour d’étoiles froides ont tendance à avoir des orbites qui s’alignent sur le sens de rotation de l’étoile, alors que celles tournant autour des étoiles chaudes ont souvent des orbites décalées, et que tant de Jupiters chauds sont plus gros et moins denses que prévu étant donné leur masse, même en tenant compte de leur température extrême. Les résultats de simulation révèlent également l’influence des effets magnétiques sur les vents de ces planètes, une découverte qui pourrait fournir une méthode pour mesurer les champs magnétiques des planètes sur la base de l’observation de leur atmosphère.

Par l’étude des Jupiters chauds, si différents des géants gazeux qui tournent lentement autour de notre Soleil, les astronomes développent leur connaissance de la structure et de l’évolution planétaire – recherche qui est cruciale dans l’exploration d’exoplanètes telluriques similaires à la Terre qui pourraient accueillir la vie.

Accélération de la recherche d’exoplanète : de Kepler à TESS
La première exoplanète gravitant autour d’une étoile, tel notre Soleil, fut découverte en 1995. Les exoplanètes, en particulier les petits mondes similaires à la Terre, appartenaient au domaine de la science fiction il y a seulement 21 ans de cela. Aujourd’hui, et des milliers de découvertes plus tard, les astronomes sont sur le point de trouver quelque chose dont les gens ont rêvé pendant des milliers d’années – une autre Terre. Le vaisseau spatial Kepler a observé 200 000 étoiles dans un coin du ciel dans les constellations du Cygne et de la Lyre sur une période de quatre ans. En utilisant la connaissance acquise à partir des découvertes de Kepler sur la répartition des populations de planète, les scientifiques peuvent estimer les taux d’occurrence des planètes en zone habitable de la taille de la Terre dans notre galaxie. Alors que la mission première de Kepler touche à sa fin, une nouvelle mission — le Transiting Exoplanet Survey Satellite (TESS) — commence tout juste à prendre forme. L’objectif de cette mission complémentaire sera d’examiner le ciel tout entier à la recherche d’exoplanètes qui sont de bonnes candidates à la production d’études détaillées des planètes et de leur atmosphère.

Le télescope à bord du vaisseau spatial Kepler possède un miroir d’1,1 mètre et une caméra de 95 méga pixels. La luminosité du pixel, qui est utilisée pour déterminer la taille de la planète, est accumulée sur des périodes de 30 minutes. Le vaisseau spatial est situé en orbite non-terrestre – au lieu de graviter autour de la Terre ellemême, l’observatoire est placé derrière la Terre lorsqu’elle tourne autour du Soleil. Sa position reculée ne permet pas le téléchargement immé- diat des pixels, donc l’équipe de Kepler choisit un nombre d’étoiles cibles représentant à peu près 5% des pixels totaux et les télécharge à destination du Kepler Science Operations Center (SOC) au Ames Research Center de la NASA. Ces pixels sont ensuite gradués et associés pour former des courbes de lumière, et les chercheurs examinent l’affaiblissement de la lumière des étoiles qui indique une exoplanète en transit.

Reprenant là où Kepler s’est arrêté, le nouveau vaisseau spatial TESS, dont le lancement est pré- vu pour 2017, sera sur une orbite hautement elliptique captant la luminosité de plus de 500 000 étoiles durant une mission de deux ans. Tous les 27 jours, TESS étudiera à 96 degrés l’évolution du ciel (un ensemble de régions d’observation) et après deux ans, TESS aura observé la quasi-totalité du ciel. Le but de cette mission est complé- mentaire de celle de Kepler. Alors que Kepler capturait un échantillon représentatif de planètes, TESS se concentrera sur les planètes qui sont de bonnes candidates à une étude plus approfondie grâce au télescope spatial James Webb.

Les données de Kepler ont permis de mettre à jour une mine d’informations phénoménale dans le domaine de la science des exoplanètes. Au 1er novembre 2014, on comptait 989 planètes attestées ou validées, 4 234 planètes candidates, 2 165 étoiles doubles photométriques, et la première planète en zone habitable de la taille de la Terre, Kepler-186f. A présent que les scientifiques du SOC ont un panel d’échantillons suffisamment important, ils peuvent réaliser des statistiques pour estimer les taux d’occurrence des planètes. Les planètes en zone habitable de la taille de la Terre sont les plus intéressantes. En évaluant le taux d’occurrence de ces planètes il sera peut-être un jour possible d’estimer le nombre de mondes dans l’univers pouvant accueillir la vie.

L’IMPORTANCE DU HPC
Cette année, pour la première fois, la NASA a pu recalibrer tous les pixels collectés par Kepler, en utilisant le superordinateur Pleiades du département de la NASA Advanced Supercomputing (NAS), au Ames Research Center. Ce sera le jeu de données le plus précis produit par l’équipe de Kepler puisque nous intègrerons les résultats de nos meilleurs algorithmes afin d’éliminer le bruit de différentes sources (instruments, rayons cosmiques, étoiles). Nous utiliserons ensuite le nouveau jeu de données dans la recherche de nouvelles planètes candidates. Le programme scientifique Kepler travaille sur 200 000 étoiles observées ; au cours de cette recherche, l’algorithme du Transiting Planet Search effectue 1E11 tests statistiques. Cela est rendu possible grâce au calcul de haute performance disponible au NAS. De plus, les experts de la visualisation du NAS ont aidé à régler avec précision l’infrastructure et les algorithmes du logiciel Kepler du SOC pour s’en servir sur Pleiades. La mission TESS utilisera les capacités du superordinateur du NAS pour presque tous ses besoins informatiques afin de produire un nouveau jeu de données tous les 27 jours et en offrir l’usage à la communauté scientifique.

Simulation de la rotation interne et de la dynamique des étoiles et des planètes géantes
Afin de comprendre la structure et l’évolution des étoiles et des planètes, et d’interpréter avec précision nos observations, nous devons trouver des moyens d’en savoir plus sur les processus dynamiques qui se produisent à l’intérieur de ceux-ci. La modélisation et simulation sur des ordinateurs haute-performance sont des outils très efficaces pour effectuer des recherches sur ces phénomènes. Nous avons développé un code de magnétohydrodynamique (MHD) sphérique en 3D qui peut simuler l’intérieur de planètes géantes, le Soleil et d’autres étoiles. Ces études peuvent nous aider à interpréter différentes observations astronomiques et à faire des prévisions qui peuvent guider les observations futures.

En utilisant le code MHD sur le superordinateur Pleiades du département de la NASA Advanced Supercomputer (NAS), le Nasa’s Ames Research Center a récemment mené deux études de simulation révolutionnaires. Ils ont réalisé les premières simulations MHD sur une planète « Jupiter chaud » — une planète de la taille de Jupiter proche de son étoile hôte — qui incluait une diffusivité magnétique variable et un chauffage ohmique autosuffisant. Ils ont également conduit des simulations autonomes en 2D et 3D qui combinaient des régions convectives et radiatives à l’intérieur d’une étoile massive afin de simuler les ondes de gravité internes conduites par convection (IGWs). Les résultats ont montré que les ondes pouvaient modifier la rotation en surface de ces étoiles et provoquer des flux moyens de grande envergure qui changent dans le temps et sont potentiellement observables.

RÉSULTATS ET CONSÉQUENCES
Les simulations de la Nasa sur un Jupiter chaud révèlent des dynamiques qui sont entièrement liées à la présence d’un champ magnétique. Les effets magnétiques pourraient influencer les vents sur ces exoplanètes, qui sont observables au moyen de cartes de température. Nos résultats pourraient mener à une méthode qui déduirait les champs magnétiques des planètes à partir des observations réalisées grâce aux télescopes spatiaux de la NASA Spitzer et Hubble et d’autres observatoires actuellement existants. De plus, nos résultats montrent que le système de chauffage ohmique avait été surestimé dans les calculs simplifiés précédents — et par conséquent ne peuvent expliquer l’augmentation du rayon observé sur ces planètes, comme envisagé auparavant.

Les flux prédits par les simulations d’étoiles massives — en réalité, la vitesse de transport par les IGWs — peuvent expliquer beaucoup de grands mystères, y compris les anomalies chimiques qui ont été observées sur de telles étoiles, le mécanisme qui conduit la diminution intermittente des disques des étoiles de type B, et l’origine de la macro-turbulence dans les étoiles intermédiaires et massives. Ces flux peuvent aussi expliquer la dichotomie observée de l’oblicité entre les planètes Jupiters chauds gravitant autour des étoiles chaudes et froides — en d’autres termes, pourquoi les orbites de ces planètes autour des étoiles froides ont tendance à s’aligner sur le sens de rotation de l’étoile, alors que les orbites autour des étoiles chaudes sont décalées.

L’IMPORTANCE DU HPC
Ces simulations exigent des ressources informatiques considérables. La relativement basse résolution des calculs sur un Jupiter chaud a nécessité des centaines de milliers d’heures de traitement de données sur Pleiades ; chaque calcul 2D sur une étoile massive a également requis des centaines de milliers d’heures de traitement. Les calculs 3D sur une étoile massive ont demandé approximativement un million d’heures de traitement de données, en fonction de leur complexité. Afin d’analyser les résultats de simulation, le Nasa’s Research Center devait stocker des quantités considé- rables de données —environ 60 térabits— sur le système de stockage massif Lou au NAS. Sans les ressources informatiques de haute performance de la NASA, ces simulations et analyses de données ne seraient pas possibles.

Conduite de test “Sun in a box” avec l’observatoire solaire IRIS de la NASA
Le Soleil est l’étoile la plus proche de la Terre, et nous influence de diverses manières, dont beaucoup ne sont pas comprises. Le rayonnement du Soleil joue un rôle sur le climat de la Terre, et ses violentes tempêtes solaires impactent l’environnement spatial autour de notre planète, ce qui peut mener à des perturbations significatives sur notre société dé- pendante des technologies (réception du GPS, stabilité du réseau électrique). Pour mieux comprendre comment l’atmosphère du Soleil est formée et chauffée, et comment cela influence la Terre, notre équipe simule une petite partie du Soleil dans une boîte computationnelle qui pourrait contenir six fois la Terre, et compare ses résultats avec les observations en haute résolution du Soleil de la mission récemment lancée par la NASA, Interface Region Imaging Spectrograph (IRIS). Ce projet utilise des simulations de magnétohydrodynamique radiative pluridimensionnelle avancée afin de prendre en compte les processus physiques complexes qui alimentent l’atmosphère du Soleil. Nous menons des comparaisons détaillées de nos simulations avec les observations en haute-résolution de la basse couche de l’atmosphère solaire faites par l’observatoire solaire IRIS de la NASA. Cette combinaison de modélisation numérique et d’observations cherche à révéler :

  • Comment l’atmosphère solaire extérieure peut monter à des températures bien plus hautes que celles de la surface du Soleil du fait de la dispersion d’énergie du champ magnétique.
  • Comment les interactions complexes des champs magnétiques, hydrodynamiques et des champs de rayonnement forment l’atmosphère du Soleil.

En comparant les résultats de nos simulations avec les images prises par le vaisseau spatial IRIS, nous avons pu expliquer certaines découvertes déroutantes de la mission. Les simulations ont aidé à révéler comment les champs magnétiques de petite taille impactaient la basse couche de l’atmosphère solaire (chromosphère) et comment le frottement entre les particules ionisées et neutres dissipe l’énergie magnétique et aide à chauffer la chromosphère. La compréhension des proprié- tés de la chromosphère est importante, puisque cette partie du Soleil est la source principale du rayonnement ultraviolet qui touche la couche supérieure de l’atmosphère de la Terre.

Les simulations ont apporté une vision critique des mécanismes physiques qui produisent certains des événements violents observés par IRIS, ainsi que des avancées nécessaires dans les méthodes d’interprétation des données complexes de rayonnement enregistrées par l’observatoire solaire.

L’IMPORTANCE DU HPC
La modélisation numérique des processus complexes de transfert radiatif et physique du Soleil, combinée aux énormes contrastes de densité, de température et de champ magnétique au sein de l’atmosphère solaire, requiert des ressources puissantes en informatique haute-performance. Les simulations utilisent les capacités massivement parallèles du superordinateur Pleiades du département de la NASA Advanced Supercomputing, au Ames Research Center.

Approximativement 2 millions d’heures de traitement de données (48 jours, 1 728 processeurs) ont été nécessaires pour calculer une heure du temps solaire. Plus les scientifiques de la NASA en apprennent sur les différences entre les observations et les simulations, plus le travail sur de nouvelles simulations solaires s’amé- liore ; ceci permet une bien meilleure résolution spatiale et de mieux déterminer certaines échelles dominantes dans l’atmosphère solaire, sur de plus grands volumes de données, afin de capturer le comportement à grande échelle du champ magnétique du Soleil. Cela devrait mener à une meilleure concordance avec les observations d’IRIS, qui apporteront à leur tour une meilleure compréhension des mécanismes complexes en jeu sur notre étoile la plus proche.

ChaNGA : des simulations sans précédent de la formation de la galaxie
Comprendre la formation des galaxies comme notre propre Voie lactée, et les galaxies naines autour, est la clef pour faire avancer notre compréhension de la façon dont se forment les structures cosmiques et la nature de la matière noire et des trous noirs. Suivre la formation ne serait-ce que d’une galaxie à l’échelle de la vie de l’univers nécessite un modèle physique pré- cis qui comprend nombre de processus diffé- rents qui sont en jeu à petite et grande échelle. Un nouveau code, ChaNGA, est utilisé sur les ordinateurs haute-performance de la NASA afin de réaliser une multitude de simulations réalistes qui capturent la gravité et l’hydrodynamique gazeuse, décrit la façon dont les étoiles se forment et meurent, et comment les trous noirs évoluent. Les simulations déterminent les structures de la galaxie avec une résolution sans précédent — jusqu’à plusieurs centaines d’années lumières (autour de 100 parsecs). Les résultats des simulations sont utilisés pour interpréter les observations réunies par les missions de la NASA, comme le télescope spatial Hubble, pour faire avancer l’objectif de la NASA en astrophysique : « Découvrir comment fonctionne l’univers, explorer comment il a commencé et évolué, et chercher de la vie sur les planètes autour d’autres étoiles ».

ChaNGA (Charm N-body GrAvity solver), fut développé à l’université de Washington et l’université d’Illinois pour produire des simulations hydrodynamiques « N-body plus ». Un programme unique d’équilibrage de charges, basé sur le système d’exécution CHARM, nous permet d’obtenir une bonne performance sur des systèmes massivement parallèles comme le superordinateur Pleiades situé au Ames Research Center de la NASA. Sur Pleiades, nous menons des simulations haute-fidélité de douzaines de galaxies, allant de la très importante Voie lactée jusqu’à des galaxies 1 000 fois moins massives, avec une force de résolutions sous les 100 parsecs (1 parsec = 3,26 années lumière). Des exemples de projets en cours avec ces simulations comprennent: quantifier la redistribution de la matière dans les galaxies quand l’énergie de supernova est versée ; explorer la croissance des trous noirs et l’impact des noyaux galactiques actifs (AGN) sur l’évolution des galaxies, et déterminer si la lumière ultraviolette émanant des étoiles dans les galaxies peut « s’échapper » pour reioniser l’univers.

Les simulations de haute résolution déjà réalisées ont révolutionné la vision des scientifiques sur la formation des galaxies. Les scientifiques ont découvert que quand des supernovas se produisent dans les régions les plus denses où les étoiles naissent, leur énergie peut se changer en matière noire, entraînant la matière en dehors du centre des galaxies. Ce processus ne peut se produire dans des simulations de basse résolution, et par conséquent a déjoué la détection pendant plus d’une décennie, malgré d’autres tentatives pour produire des simulations réalistes de galaxie. Ces nouveaux résultats expliquent plusieurs défis d’observation au long cours de la théorie de la formation de la galaxie du Lambda Cold Dark Matter (CDM), et ouvrent de nouveaux champs d’investigation.

L’IMPORTANCE DU HPC
La réussite des simulations haute résolution qui a révolutionné notre théorie sur la formation de la galaxie exige des milliards de particules pour une simulation donnée, et les régions à haute densité où les étoiles se forment demandent de petites étapes dans le temps. Une seule simulation de galaxie peut prendre plus d’un million d’heures de traitement de données. Notre nouvelle version actualisée de ChaNGA nous permet de monter jusqu’à des centaines de milliers de cœurs. Les tests réalisés sur Pleiades ont produit des simulations de galaxie, prêtes à être étudiées, et de plus en plus de simulations de pointe seront menées sur Pleiades durant l’année à venir.

Helix Nebula : vers un cloud scientifique européen ouvert L’Helix
Nebula Initiative est un partenariat entre industrie, espace et science pour établir un écosystème dynamique, bénéficiant des services de cloud ouvert pour une intégration homogène de la science dans l’environnement des affaires. Aujourd’hui, le partenariat compte plus de 40 partenaires publics et privés et quatre des plus grands centres de recherche européens, le CERN, l’EMBL, l’ESA et le PIC, traçant un chemin vers des services durables de Cloud pour les communautés de la recherche – le Science Cloud.

LE PRINCIPAL PARTENARIAT EUROPÉEN PUBLIC-PRIVÉ EN MATIÈRE DE CLOUD
Le CERN a récemment publié un papier qui expose les grandes lignes de la fondation de l’European Open Science Cloud qui rendra possible la science digitale en introduisant les nouvelles technologies comme un service du secteur public de la recherche en Europe. Le CERN prend son propre cas pour souligner les bénéfices de cette approche :

  • Evaluer l’utilisation des technologies du Cloud pour traiter les données LHC
  • Intégration transparente des ressources informatiques du Cloud avec les services et logiciels informatiques distribués d’ATLAS
  • Evaluation des coûts financiers du traitement, du transfert et du stockage de données
  • Convention de service et modèle de gouvernance

Comme le CERN l’a exposé, physique et informatique sont face à un immense défi. Des milliards d’événements sont livrés aux expériences de collisions proton-proton et proton-plomb sur la période Run 1 (2009-2013):

  • Collisions chaque 50 ns = 20 MHz taux de changement du signal
  • ~35 interactions par croisement au pic de luminosité
  • ~1600 particules chargées produites à chaque collision
  • ~ 5PB/année/expérience

LA GRILLE INFORMATIQUE LHC DU CERN DANS LE MONDE
Le WLCG est une collaboration internationale qui vise à stocker, traiter et analyser les données produites par le LHC. Ce projet intègre des centres informatiques du monde entier qui fournissent des ressources informatiques et de stockage au sein d’une seule infrastructure.

Plusieurs initiatives de R&D ont commencé par des collaborations expérimentales pour étudier et exploiter les ressources du cloud, afin d’utiliser les clouds privés et publics comme une ressource informatique additionnelle et d’installer un mécanisme pour gérer les charges de pointe sur la grille.

PANDA : LE SYSTÈME DE WORKLOAD MANAGEMENT D’ATLAS
PanDa, raccourci du système d’Atlas, Production And Distributed Analysis (PanDA), est un système informatique homogène réparti sur des ressources hétérogènes utilisées pour la soumission de tâches, et pour piloter les travaux d’acquisition des ressources à traiter tout en supportant à la fois la gestion de la production et de l’analyse.

Le workflow de l’expérience a été testé avec succès par la méthode de Monte Carlo. La simulation du Géant 4 basée sur la propagation des particules à travers le détecteur ATLAS est comme suit:

  • Long (~4h), usage CPU très intensif, usage I/O bas.
  • Entrées: MC générateur 4 fichiers vectoriels
  • Sorties: ~50 MB/fichier de 50 événements

Le concept de science ouverte et d’un cloud scientifique européen ouvert semble être largement approuvé, mais comment le mettre en œuvre reste en grande partie inconnu ; Helox Nebula et l’European Science cloud sont des exemples qui peuvent être utilisés pour définir la future structure…

La Big science fait équipe avec les grandes entreprises : l’initiative Helix Nebula accueille HNSciCloud – un partenariat informatique européen autour du Cloud Le HNSciCloud est un projet européen d’achat public avant commercialisation(PCP) co-fondé par le Programme de travail à horizon 2020 de la Commission européenne, qui a démarré en janvier 2016. Conduit par l’engagement du PCP des organismes de recherche de pointe par-delà l’Europe, HNSciCloud créé un marché compétitif de services innovants de cloud servant aux utilisateurs scientifiques dans une grande variété de domaines.

Le marché est construit sur une plateforme hybride de cloud comprenant des fournisseurs de service commerciaux, des e-infrastructures financées sur fonds publics et des fournisseurs de ressources internes. HNSciCloud lancera un appel d’offres pour les services innovants du cloud. L’appel d’offre sera présenté à la consultation ouverte d’achat public avant commercialisation du 17 mars 2016, à Genève, en Suisse.

Une fois effectués, les objectifs prévus par le marché de l’infrastructure sont de :

  • fournir un accès aux ressources du monde entier et de classe mondiale à travers un marché dynamique et durable.
  • être construit sur des actifs publics et commerciaux, et couvrir le workflow scientifique tout entier
  • offrir le plus large choix de services
  • assurer l’utilisation de standards ouverts et d’interopérabilité aux fournisseurs de service tout en adhérant aux politiques, normes et exigences européennes

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index