Efficacité énergétique : coup de chaud sur le refroidissement
By   |  October 14, 2013

Améliorer l’efficacité du refroidissement des calculateurs, voilà une autre tâche non négligeable. Cette énergie est en effet purement gaspillée puisqu’elle ne participe ni au calcul, ni aux communications, ni au stockage. Pour poursuivre avec l’exemple de Tianhe-2, c’est l’équivalent d’un tiers de l’électricité utile (18 MW) que nécessite le cooling du cluster (6 MW).

La mesure du PUE (Power Usage Effectiveness) des calculateurs est donc devenu un enjeu clé dans la course à la puissance. Pour mémoire, le PUE idéal se situe à 1.0, soit 100 % de l’énergie consommée en calcul et 0 % en refroidissement. Jadis, les salles blanches refroidies par air froid pulsé via des systèmes de conditionnement situés sous les planchers présentaient typiquement un PUE de l’ordre de 2 (1 Watt de climatisation consommé pour 1 Watt de calcul utile). Ce bilan calamiteux n’est plus tolérable, en tout cas à l’échelle des centres de calcul ou des datacenters. L’industrie a ensuite cherché à améliorer ce rendement avec de l’eau froide. C’est sur ce principe que fonctionne Curie ou le calculateur japonais Helios. Ces machines, fournies par Bull, sont refroidies au niveau des portes des racks, dans lesquelles circule de l’eau à 10-12°C, une température destinée à maintenir la salle machine à 20-25°C ambiants. Avec des approches de ce type, le PUE descend à 1.5 voire à 1.35 sur les systèmes les mieux optimisés.

Pour aller plus loin, il faut passer au Direct Liquid Cooling (DLC), c’est-à-dire refroidir directement les composants par échange thermique via des liquides tièdes pouvant être diélectriques. Avec cette technologie, le PUE atteint typiquement 1.1. Rien d’étonnant à cela : les fluides ne devant plus être maintenus qu’à 35 voire 40°C, l’énergie nécessaire est bien inférieure à celle que requiert une température moyenne de 25°C moindre. Avantage annexe, les systèmes DLC les plus performants permettent des gains en densité, dans la mesure où ils sont nettement moins encombrants que leurs équivalents à air. La puissance réellement utilisable dans le volume d’un rack est ainsi passée de 15 kW il y a cinq ans à 70 kW aujourd’hui. La bonne nouvelle, c’est qu’il reste encore une certaine marge de progression, sur les éléments de conversion électrique notamment. La mauvaise, c’est que plus on atteindra leurs limites physiques, plus les circuits seront difficiles à manipuler (du fait de leur température), ce qui nuira à leur maintenabilité… à chaud.

Autre contrainte, la température de surface des composants actifs, CPU en tête. Typiquement située au alentours des 85°C, elle a tendance à s’abaisser génération après génération. Mais ces progrès, lents, sont insuffisants dans les perspectives de passage(s) à l’échelle qui nous occupent. D’où l’arrivée du graphène, matériau auquel on prête toutes les vertus, dans ce domaine-là aussi. Structurellement, le graphène pourrait vite devenir le candidat idéal pour une dissipation thermique efficace. Une équipe de l’Université de Technologie de Chalmers, en Suède, a commencé à le mettre à l’épreuve. Dirigée par le Pr Johan Liu, elle s’est penchée sur quelques premières applications pratiques, notamment le refroidissement des points chauds d’un CPU type. Résultat des premiers tests en conditions réelles : 13°C de gagnés directement, sans aucune dépense d’énergie.

[Cet article fait partie du dossier Efficacité énergétique : Le St Graal du calcul intensif]

[En détails]

Cap au Nord pour les grands datacenters

Une récente étude IDC le montre : il se construit de moins en moins de datacenters aux Etats-Unis. En revanche, ce qui augmente, c’est la surface bâtie. L’idée est en effet de construire des centres de données de plus en plus vastes pour mutualiser les coûts d’infrastructures et les équipements de refroidissement. Logique, certes, mais jusqu’à un certain point seulement. D’où des alternatives dont l’évidence saute aux yeux… a posteriori.

Pour abaisser la facture de production du froid, on peut parfois  trouver des solutions dans l’environnement immédiat du datacenter. L’écurie de Formule 1 Sauber utilise ainsi directement une source naturelle d’eau glacée qui descend des Alpes pour refroidir son calculateur, baptisé Albert-2. C’est lui qui, par simulation couplée à une soufflerie physique, optimise l’aérodynamique des voitures. Les ingénieurs suisses n’avaient qu’à se baisser – si l’on ose dire – pour exploiter une ressource gratuite, renouvelable et non polluante.

Mais c’est en sens inverse que le principe fonctionne le mieux, comme le montre, à une échelle toute autre, l’exemple de Facebook. Le géant des réseaux sociaux, dont les besoins en calcul et en stockage sont colossaux, vient de faire construire un datacenter de près de 27 000 m² en bordure du cercle polaire arctique. Le but n’est évidemment pas de recruter plus de membres chez les Inuit mais d’utiliser cette position géographique pour rendre plus “verte” son infrastructure. Situé à Lulea (900 km au Nord de Stockholm), l’ensemble bénéficie non seulement d’une hydro-électricité décarbonée à faible coût, mais également d’une climatisation naturelle aussi efficace que durable. D’où un PUE record de 1,07.

Le nouveau datacenter de Facebook, en bordure du cercle polaire arctique.

Va-t-on vers un tropisme des datacenters contraire à celui des vacanciers d’été ? On peut le penser, d’autant qu’il y a là une manne potentielle dont certains états aimeraient profiter. C’est notamment le cas de l’Islande avec son projet Verne Global. A mi-chemin entre les Etats-Unis et l’Europe, l’île a des atouts à faire valoir : une énergie électrique 100 % renouvelable puisque issue de la géothermie et de l’hydroélectrique, une desserte par fibre optique annoncée comme optimale et un climat… idéalement glacial. Verne Global a pour objet de reconvertir l’ancienne base OTAN de Keflavik en un campus de datacenters. Les responsables annoncent disposer de 20 000 m² de surface utile sur les 18 hectares du campus, ainsi que d’une capacité réseau totale de 28 Térabits vers l’Europe et l’Amérique du Nord.

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index