Innovations à suivre
By   |  May 04, 2013

Quoi qu’en disent les supporters de l’approche évolutive, les plateformes exaflopiques embarqueront des technologies qui n’existent pas aujourd’hui. Lesquelles ? C’est toute la question… En voici trois, d’importance différente, sur lesquelles on peut raisonnablement parier.

Cet article fait partie du dossier En route vers l’exascale

Le spectre des recherches technologiques dans le domaine IT est virtuellement infini. Pour identifier les meilleures candidates à l’exascale, partons des points faibles communément relevés dans les architectures actuelles. Le premier, c’est bien sûr les interconnexions. Parce qu’elles jouent un rôle crucial dans le transfert des données à tous les niveaux, parce que l’intégration progressive des composants ne les éliminera pas totalement, ces interconnexions passives pourraient continuer à compter parmi les principaux goulets d’étranglement qui handicapent la performance des calculateurs. A moins que l’optique ne se généralise – une possibilité de moins en moins improbable d’ici 2020.

La lumière à l’intérieur des tunnels

Le développement des travaux en silicon photonics est en effet porteur de gros espoirs. L’idée générale, c’est d’intégrer les liens optiques à l’intérieur des composants électroniques pour exploiter au mieux leurs qualités intrinsèques de densité, de dimensionnement et d’efficacité énergétique. A ces bénéfices s’ajoutent une simplification de ces mêmes composants électroniques, donc un coût de production et d’utilisation réduit.

Dans l’implémentation Intel actuelle, l’unité de transmission photonique à 50 Gbps (à gauche) relie deux processeurs intermédiaires qui modulent et démodulent les impulsions laser.

La bonne nouvelle, c’est que la recherche en est aujourd’hui au stade du prototypage. Très en pointe dans ce domaine, Intel a présenté récemment un rack photonique (fabriqué par Quanta Computer) doté d’une première implémentation à 100 Gbps de cette technologie. Outre la démonstration de l’intégration réelle de la lumière au niveau du système, il s’agissait de mettre en avant la simplification des installations (moins de câbles, moins de points de rupture), leur très basse consommation et surtout la possibilité de désagréger les plateformes en séparant, à des distances confortables, les sous-systèmes classiques que sont les lames de calcul, les unités de stockage, les interfaces réseau et l’alimentation.

Ce n’est là bien sûr qu’une première étape. L’objectif, c’est d’implémenter le photonique à tous les niveaux possibles des architectures actuelles – PCIe, Ethernet, etc. – pour garantir leur pérennité et permettre ainsi au reste de l’industrie de capitaliser sur les investissements déjà réalisés. A en croire les meilleurs spécialistes du domaine, on ne devrait pas trop avoir de difficultés à y parvenir. Techniquement, l’ajout aux cartes mères d’éléments purement optiques (diodes laser, modulateurs, etc.) s’apparente au montage des processeurs en surface. De ce fait, en termes de design industriel, on s’achemine vers des modules fonctionnels discrets, interchangeables et empilables, incluant les deux types de technologies. Et s’agissant de leur niveau de consommation, les premiers prototypes montrent une efficacité remarquable, de l’ordre de l’ordre de du mW par Gbps (1 pJ/bit).

La mémoire en 3 dimensions

Dans son implémentation actuelle, temporaire, la mémoire empilée continue d’utiliser les liens cuivrés pour la connexion aux cartes mères. Son niveau optimal de performances sera atteint, à horizon 2015, lorsque les connexions se feront à travers le silicone, jusqu’au processeur auquel elle sera associée.

Revenons maintenant à nos chères mémoires. L’ensemble des problèmes classiques (bande passante, latence et capacité) devrait trouver une réponse globale avec l’empilement des modules sur le même package que les processeurs. Cette intégration directe vise trois objectifs connexes : supprimer les liens cuivrés à faible performance, éviter d’avoir à amplifier les signaux et dimensionner les performances mémoire à l’échelle de celles du processeur pour maintenir un ratio byte/flop constant sur plusieurs générations. Autre avantage, l’empilement est industriellement moins coûteux que la fabrication de barrettes. Il reste simplement aux fondeurs à parfaire les technologies de connexion intra-silicone pour que la mémoire empilée devienne réalité.

Les travaux en cours chez Intel, Micron ou Samsung laissent penser qu’on y sera à relativement court terme, avec un niveau de performance annoncé de 1 To/s. L’optimisme des électroniciens est en ligne avec l’annonce faite ce mois-ci par l’Hybrid Memory Cube Consortium (HMCC – voir nos Actus) d’un standard global, soutenu par l’ensemble de l’industrie, qui définit les contours pratiques de ces modules mémoire à très haute densité. Enfin, on a vu dans plusieurs roadmaps à horizon 2016-2018 que des produits manufacturés de grande diffusion prévoyaient d’ores et déjà son intégration.

Optimiser la consommation des échanges réseau

Terminons par une proposition émanant de chercheurs du laboratoire américain de l’AMES et de la Old Dominion University. Dans la course à l’amélioration de l’efficacité énergétique, plusieurs mécanismes de réduction de consommation électrique ont déjà été implémentés au cœur même des CPU et des processeurs ancillaires. La majorité des pilotes savent déclencher de façon plus ou moins optimisée la réduction dynamique du voltage ou la modulation de la fréquence d’horloge. L’idée développée dans l’article en question consiste à appliquer ce frequency scaling aux processus de communications, et notamment aux connexions réseau. 

Pour ce faire, les auteurs ont mis au point plusieurs stratégies de découpage des transferts de données en phases consécutives. Ces phases se caractérisant par différents laps de temps séparant les appels, ils suggèrent d’adapter l’alimentation des composants à la nature fonctionnelle des opérations. De telles stratégies impliquent évidemment des calculs d’analyse en temps réel qui pourraient ralentir les débits (ces calculs sont effectués au niveau du runtime des applications tests). Or, en fonction de la stratégie mise en œuvre, les résultats expérimentaux montrent qu’un équilibre fin entre la complexité des analyses et l’amplitude des changements de fréquence n’aboutit qu’à une baisse de performances de 2 %, cependant que les objectifs théoriques de réduction de la consommation énergétique sont atteints. Ce n’est là qu’une première approche, qui demande à être validée sur un éventail de cas plus large que le benchmark NAS et l’application GAMESS utilisés pour l’occasion. Mais la technique est éprouvée, et son extension à une dimension aussi essentielle à l’exascale que les communications réseau apparaît presque indispensable.

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index