Accélération matérielle : où en est l’industrie ?
By   |  August 24, 2015

Alors que l’on croyait le secteur du calcul intensif d’un calme (relativement) plat, c’était sans compter avec la vitalité d’un marché en pleine croissance de nature à encourager de nouvelles voies architecturales. De quoi aiguillonner les acteurs installés pour aller encore plus loin. Tour d’horizon

En ce début d’année 2015, le paysage de l’accélération matérielle a considérablement évolué et s’est enrichi d’acteurs capables d’innover sur d’autres fronts que la puissance brute. Car il faut désormais aussi prendre en compte la consommation énergétique et le ratio performances / consommation a désormais droit de cité, comme le démontre le récent chamboulement à la tête du Green 500 (voir l’interview de J.C. Baratault d’AMD dans ce numéro). Dans un cas comme dans l’autre, l’impératif est pour les concepteurs de solutions d’accélération de gagner – encore – en efficacité. Ce challenge est régulièrement relevé par l’évolution transistorique (la célèbre loi de Moore) mais aussi par de réels progrès architecturaux. Et là où une solution mettait jadis des années à voir le jour, l’heure est à l’agilité, avec des cycles itératifs courts et des évolutions micro-architecturales qui ont un impact réel et mesurable au fil des générations.

Le matériel n’est pas tout
En matière d’accélération, tout ne repose pas pour autant sur le matériel. La partie logicielle est au moins aussi importante, comme le démontre l’existence de plusieurs paradigmes, certains propriétaires comme CUDA, mais à l’historique éloquent, et d’autres, ouvertes comme Open MP ou OpenCL, qui favorisent la cross-pollinisation d’idées et d’algorithmes toujours plus pointus.

CPU contre GPU ?
Ces deux dernières années ont été marquées par une opposition assez virulente des approches GPU prônées par AMD et Nvidia d’un côté mais requérant une révision du code pour profiter de l’architecture parallèle, et de l’autre côté par l’approche CPU d’Intel privilégiant au contraire une compatibilité x86 ascendante. Les deux ne sont pas pour autant antinomiques, comme l’illustre la solution retenue par le TACC (Texas Advanced Computing Center) pour son supercalculateur Stampede. Ce dernier combine des processeurs Xeon E52680 à 8 cœurs, des Xeon Phi et des GPU Nvidia Kepler K20.

Y a-t-il un vainqueur ?
L’on est tenté de répondre à cette question par une réponse de normand : oui et non. En réalité, ce n’est pas seulement la plate-forme d’accélération qui fera seule la différence. Ce sera également le code qui sera exécuté. Notamment les portions qui auront été réécrites pour profiter à fond de la solution matérielle sur lequel il s’exécute. Certains traitements fortement itératifs gagneront à être optimisés sur une base GPU, d’autres en revanche verront leur efficacité augmenter sur base Xeon Phi.

Mais foin de manichéisme, il existe d’autres approches que nous vous présentons dans ce dossier. L’approche manycore de Kalray mérite d’être examinée avec attention. Et tout récent encore, le consortium OpenPower pourrait réserver quelques surprises à la faveur des changements architecturaux que nous vous décrivons plus loin. On le voit, là où la performance n’était jadis qu’une question de fréquence d’horloge, elle est désormais le résultat d’une subtile alchimie faite de processeurs massivement parallèles, d’innovations architecturales et d’astuces d’implémentation, le tout conjugué à un environnement logiciel qui n’a de cesse d’apporter sa pierre à un édifice dont la solidité ne fait plus de doute.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index