Direct from the HPC Labs, our exclusive advanced development and programming section – source code included!
Souvent ignorées des scientifiques, les techniques d'optimisation des couches MPI sous-jacentes aux applications peuvent s'avérer décisives en termes de [...]
Faire cohabiter CUDA et MPI, c'est bien. Tirer avantage des spécificités du premier pour nettement accélérer le second, c'est mieux. Voici comment réunir [...]
Comme promis, voici nos premières évaluations comparatives des deux accélérateurs parallèles présentés en détails dans notre numéro de mars. Compute, memory, [...]
OpenCL promet la portabilité des codes HPC entre différentes architectures matérielles. Qu'en est-il réellement, en termes de performances ? A partir d'une [...]
Parfois négligée, l'exploitation des différents formats de représentation des nombres flottants est une voie sûre pour l'optimisation des codes. Voyons comment [...]
Où l’on démontre qu’en fonction de la stratégie de distribution des threads sur les cœurs de Phi, il est possible de gagner – ou de perdre [...]
Les choses sérieuses commencent. Maintenant que Phi n'a plus de secrets pour nous, il est temps de solliciter ses ressources avec, ce mois-ci, un long focus [...]
Très largement utilisée en simulation physique et en robotique, la détection de collision permet également de démontrer un principe de réalité contre-intuitif [...]
Où l’on démontre que l’utilisation de mémoire globale est à la fois inutile et coûteuse en performances. A contrario, la mémoire partagée ne présente que des [...]
La petite liste qui suit compile les techniques les plus efficaces pour optimiser un code source dans une optique de parallélisation massive. Chacune de ces [...]