Verbatim : Gérard Roucairol, Président de Teratec
By   |  October 13, 2013

Une heure avec Gérard Roucairol,
Président de Teratec, Président de l’Académie des technologies.
Propos recueillis par Alex Roussel.

HPC Today : Pouvez-vous nous rappeler ce qu’est Teratec, et quelle est sa mission ?

Gérard Roucairol : Structurellement, Teratec est une association loi de 1901. Elle regroupe les industriels et les laboratoires publics qui œuvrent au développement du calcul intensif et de la simulation numérique. Teratec est indépendante, financée par ses membres et ne reçoit pas de subventions. L’animation de cette communauté se déroule sur toute l’année mais a pour point d’orgue le Forum Teratec, qui est devenu la grande rencontre française, voire européenne du domaine. La dernière édition (fin juin à l’Ecole Polytechnique) a regroupé 1000 participants sur les 2 jours, une soixantaine de stands dans la partie exposition et a été marquée par l’intervention de grandes personnalités du monde industriel et de la recherche. Les ateliers thématiques ont également rencontré un grand succès en regroupant les spécialistes de chacun des domaines abordés pendant une journée entière.

Quel rôle peut jouer Teratec en termes de R&D ?

Outre des workshops sur des sujets techniques, nous nous chargeons d’impulser et d’animer des projets de R&D qui sont ensuite soumis à nos instances gouvernantes. Nous sommes également très actifs sur un certain nombre de projets et d’initiatives à l’échelle européenne. Teratec est ainsi à l’origine de ETP4HPC, l’European Technology Platform for High Performance Computing. Tout cela s’inscrit dans le cadre d’une action globale, une action de réflexion collective et de proposition, à l’image du rapport que j’ai rédigé en début d’année pour le Commissariat Général aux Investissements et le Ministère du Redressement Productif. Voilà notre mission : impulsion, réflexion commune, animation et entraînement de la communauté. Communauté qui, précisons-le, regroupe trois types de membres : des utilisateurs grands et petits, parmi lesquels les acteurs traditionnels de l’énergie comme Total ou EDF et des nouveaux venus comme L’Oréal ; des producteurs de technologies hardware et software, français ou étrangers, grands ou petits ; et des laboratoires publics.

Quel est la place du Campus Teratec dans cette stratégie ?

Le campus Teratec et l’extension de la technopole Teratec sont également une action d’importance. A ma connaissance, cette technopole entièrement consacrée au calcul intensif et à la simulation numérique est unique au monde. Elle va regrouper en son sein quasiment tous les représentants de la chaîne de valeur du HPC – matériel, logiciel et services – quelle que soit leur taille. L’objectif est bien évidemment de réunir en un même lieu les gens qui conçoivent les machines, les gens qui les utilisent et tous les représentants de l’écosystème global du calcul intensif. Un lieu privilégié pour penser et mettre en œuvre le HPC de demain.

Teratec peut apparaître comme une initiative très franco-française. Vos membres ne souhaiteraient-ils pas un passage à l’échelle européenne ?

Le passage à l’échelle européenne est une ambition naturelle pour nos adhérents et pour l’ensemble de la communauté. Des ruptures considérable se profilent à l’horizon sur le plan technologique, à l’image de ce que l’on a commencé à percevoir avec l’arrivée des premières machines pétaflopiques. Des ruptures au niveau composants, au niveau logiciels, au niveau des techniques de programmation. Ces ruptures, la communauté HPC y fait face en avance de phase par rapport au reste de l’industrie IT. Parce qu’on est en quelque sorte pionniers sur l’ensemble du numérique, il faut mobiliser largement les marchés et leurs acteurs. Dans ce contexte, le périmètre européen s’impose naturellement.

Teratec apparaît dans les 34 plans industriels dévoilés par le Président de la République le 12 septembre dernier. Faut-il y voir une reconnaissance du rôle de l’association et plus globalement du calcul intensif par l’Etat ?

On a passé une étape. Les actions de Teratec ont pris une nouvelle dimension, et avec elle vient la reconnaissance  officielle par le gouvernement de l’importance stratégique du calcul intensif pour la recherche et le développement économique national. Cette reconnaissance se concrétise sous la forme de plans, d’actions programmées par l’Etat. C’est quelque chose de très important et c’est maintenant que ça se passe. Bien que Teratec ait très peu bénéficié des moyens publics, l’association a maintenant toute sa place dans le dispositif d’Etat.

L’un des 34 plans élaborés par Arnaud Montebourg est dédié aux supercalculateurs. C’est sans doute une conséquence du rapport “La simulation haute performance au service de la compétitivité des entreprises” que vous lui avez remis en mars. Pouvez-vous en retracer les grandes lignes ?

Le rapport remis à Arnaud Montebourg contenait un certain nombre de recommandations qui ont servi de base à l’appel d’offre que le CGI s’apprête à lancer. Que Teratec ait inspiré le plan Supercalculateurs est confirmé par le document diffusé par l’Elysée. L’originalité de ce rapport est qu’il ne se focalise pas sur les enjeux technologiques de la haute performance, ni sur ses usages par la recherche publique, ces sujets ayant déjà été longuement analysés. Nous nous sommes centrés sur l’usage industriel de la simulation numérique afin de souligner l’importance du calcul pour la compétitivité des entreprises. Il y a une phrase qui illustre bien la vision américaine sur ce point : “Out compute to out compete”, c’est-à-dire calculer plus et mieux pour être plus concurrentiel. Notre slogan, Simuler pour Innover, reprend ce thème. Clairement, le calcul augmente les capacités d’innovation des entreprises. Or, dans le contexte économique mondial, l’innovation est le moteur de la différentiation hors coûts. C’est grâce à l’innovation qu’on peut garder un longueur d’avance par rapport à nos concurrents asiatiques et, à terme, africains.

L’Appel à Projets HPC et Simulation est sur le point d’être lancé. Comment va-t-il se dérouler ? Quels types de projets sont susceptibles de profiter de l’enveloppe de 150 M€ prévue ?

L’appel à proposition va effectivement être lancé par le CGI et la DGCIS. La réunion de présentation aura lieu le 7 octobre sur le campus Teratec, et la date limite de clôture sera très probablement fixée à fin mars. Les projets concourant sont supposés aller jusqu’au marché, mais avec des objectifs différents : inventer de nouvelles méthodes de simulation, inventer de nouveaux outils, et diversifier l’usage des outils. La partie est donc très largement ouverte, pour qu’un maximum d’acteurs puissent contribuer, créer des bibliothèques et se les approprier. Les projets disposeront d’une enveloppe de 30 à 40 millions d’euros pour un financement à hauteur de 30 à 40 % de la totalité de leur budget. Des entreprises vont également investir dans ces projets, de sorte que, globalement, entre 150 et 200 M€ vont pouvoir être mobilisés, pour des échéances visées de trois à quatre ans.

Vous militez activement pour ouvrir l’accès au calcul intensif à de nouveaux secteurs d’activité. Quels sont-ils précisément ?

Effectivement, les domaines d’application de la simulation doivent être étendus. Jusqu’ici, quatre grands secteurs tiraient le marché : la recherche, la défense, le manufacturing et l’énergie. Aujourd’hui, une diversification est en cours, dans les domaines de la santé, du multimédia, de l’urbanisme, de la chimie, des biotechnologies, de l’agro-alimentaire… Il faut la soutenir, car elle entraînera à terme une diversification des méthodes de simulation qui sera profitable à tous.

Cette ouverture touche aussi les acteurs. A côté des grands fournisseurs de solutions matérielles et des éditeurs de logiciels, on voit arriver de nouveaux entrants, parfois de petites entreprises, qui modifient le paysage. Le Big Data, par exemple, amène de plus en plus d’intervenants traditionnellement IT vers le calcul intensif : on peut citer SAP, Microsoft ou encore SAS. On voit aussi arriver beaucoup de startups de type biotech ou digital content.

Pour Teratec, c’est une réussite que de fédérer de plus en plus d’acteurs dans un même incubateur. Aux noms déjà mentionnés s’ajoutent Distene, Scilab, AS+ ou encore Numtec. Le plateau de Saclay n’est pas très loin, l’IRT SystemX va avoir une branche sur place… L’effet campus se révèle à ce titre très favorable à la cross-fertilisation. A midi, vous allez déjeuner, et vous vous retrouvez en compagnie de gens qui construisent, qui gère ou qui utilisent des machines pétaflopiques. Vous avez une question sur la parallélisation de votre application ? Les meilleurs compétences sont sur place !

Les constructeurs se veulent rassurants quant à l’architecture des prochains calculateurs exaflopiques. Que pensez-vous de ce discours ?

Rien d’étonnant à ce qu’ils cherchent à rassurer leurs clients mais il est clair que des ruptures fondamentales vont avoir lieu, et que les cartes vont être rebattues. Rien, par exemple, ne garantit qu’Intel sera encore là dans 20 ans. ARM dominera peut-être le secteur, à moins que le monde HPC n’adopte en masse un processeur venu de Corée… De mon point de vue, le paramètre base installée va perdre de son importance tant les ruptures d’architecture vont être profondes. Bien sûr, Intel continuera à fabriquer des processeurs intéressants, mais le poids du legacy est lourd… Dans les années 90, j’avais été l’artisan du passage de Bull à l’architecture x86 car, à l’époque, le contrat qui liait Bull à IBM l’empêchait d’innover. En 1996, j’ai lancé la négociation avec Intel pour accéder en avance au processeur Merced qui a donné ensuite Itanium. Le succès n’a pas été au rendez-vous mais, grâce à cette initiative, Bull a pu continuer de travailler avec Intel en avance de phase, et continue à le faire encore aujourd’hui.

Pour autant, peut-on réellement détrôner Intel dans le calcul ?

Les concurrents d’Intel ont l’avantage de partir d’une page blanche, c’est-à-dire de ne pas avoir à supporter de gros héritage technologique. C’est le cas de Kalray par exemple, qui propose un CPU 256 cœurs. Intel en encore est loin. Lorsqu’on n’a pas à gérer la compatibilité avec moult versions précédentes, on est beaucoup plus agile. Autrement dit, le legacy est autant un avantage qu’un inconvénient. Il faut que la communauté se rende compte de cela. On a tellement perdu la culture du hard qu’on ne comprend plus ce qui se passe, ce qui coupe toute volonté d’innover. Le succès d’ARM au détriment d’Intel sur le mobile prouve en tous cas que rien n’est joué d’avance.  Attention, j’admire beaucoup Intel, notamment pour leur capacité à passer sous les 20nm. Il n’y a pas beaucoup de fondeurs capables de faire ça aujourd’hui…

Dans ce contexte, quelles positions prendre pour un utilisateur HPC ?

Les solutions qui lèveront les verrous technologiques actuels sont loin d’être encore toutes connues. Chacun est donc concerné, en particulier les utilisateurs. Il va notamment falloir réécrire une large proportion du parc applicatif. En avoir conscience aujourd’hui et s’y préparer, c’est éviter de perdre quatre à cinq ans. Dans ce domaine, le conseil le plus évident est d’anticiper les mouvements en collaboration avec les fournisseurs de technologies, en pratiquant ce qu’on appelle le co-design. Ce point est capital : l’industrie ne doit pas prendre de retard dans les usages. C’est la raison pour laquelle il est si important de mettre les utilisateurs dans la boucle.

Considérez-vous que la France soit bien placée face à ces rupture à venir ?

La France bénéficie d’une situation exceptionnelle au niveau mondial, avec des compétences sur l’ensemble de la chaîne de valeur, ce qui n’est plus le cas de nos proches voisins. En Allemagne, Siemens est totalement sorti de l’informatique. Les Anglais, quant à eux, ne conçoivent plus d’ordinateurs. Ils restent sur les processeurs avec ARM mais sont absents des logiciels de simulation et d’application. Les Français, en revanche, savent concevoir des processeurs, des machines, des logiciels de base et des applications. A cela s’ajoutent de grands utilisateurs qui tirent le marché et de vraies  sociétés de services associés. Il n’y a plus guère que les Etats-Unis, le Japon et la Chine qui soient dans ce cas. En réalité, c’est parce qu’on a soutenu Bull qu’on a pu conserver cet écosystème. Sans Bull, le reste aurait sauté en amont et en aval. Je suis un peu juge et partie en disant cela, mais on voit bien que la compétence sur les systèmes est essentielle pour comprendre le futur des processeurs et du logiciel. On a gardé cette compétence système avec Bull, on a gardé la compétence processeurs avec STMicroelectronics et les spin-offs de ST comme Kalray, par exemple.

Avec quelles grandes recommandations concluez-vous votre rapport ?

A la lumière des grandes ruptures que nous venons d’évoquer, il faut impérativement que l’Etat lance un programme ambitieux de recherche fondamentale sur les technologies. Une partie du plan Supercalculateurs sera d’ailleurs consacrée à la conception et à la fabrication de nouveaux grands ordinateurs. Je recommande par ailleurs de favoriser la R&D sur des méthodes de simulation capables d’une part de modéliser des phénomènes nouveaux dans des domaines eux aussi nouveaux, et d’autre part de s’adapter rapidement aux nouvelles architectures machine.

A ce titre, il faut avoir à l’esprit que le Big Data est en train d’engendrer une petite révolution. Traditionnellement, la simulation cherche à reproduire exactement des phénomènes physiques par des modèles mathématiques. Avec le Big Data, la problématique s’inverse : les modèles sont statistiques et s’affinent par apprentissage. On n’explicite pas le comportement physique, on évalue simplement le comportement statistique. C’est une approche de la simulation complètement nouvelle.

Une autre grande action R&D à mener concerne la programmation – ou plus exactement la programmabilité – des grandes machines. Quels environnements de développements, quels langages, quelles méthodes ? Il y a beaucoup à faire dans ce domaine également, car il est illusoire de penser qu’on programmera en C les calculateurs de la prochaine échelle.

Enfin, il faut insister sur la nécessité de mettre en place des actions de sensibilisation au calcul intensif, de facilitation d’accès et de développement des usages. Si l’on conçoit la simulation numérique comme un outil de compétitivité, il faut qu’un maximum d’entreprises l’utilisent. Cela étant posé, la simulation, ce n’est pas simplement faire tourner un programme, c’est aussi modifier ses propres processus métiers. Ce qui implique un certain partage des bonnes pratiques. Une animation au niveau national est donc nécessaire, par grandes filières industrielles, pour faire comprendre et montrer ce qu’il est possible de faire. Je vois donc deux dimensions dans l’aide à apporter aux entreprises et notamment aux PME : d’une part le support à la reconception des organisations internes, d’autres part l’accès aux machines elles-mêmes, accès pour lequel des clouds comme Numinnov sont tout à fait fondamentaux.

Mais sur quels acteurs économiques s’appuyer pour évangéliser nos PME ?

On peut passer par les pôles de compétitivité en labellisant certaines sociétés de service. On peut aussi, par métiers, faire appel aux Centres techniques, qui ont de très très grandes capacités de compréhension de la modélisation et de ses usages. Je pense notamment au Cetim, au CSTB et au Cefacs de Toulouse. Quant à l’aspect financier, l’Etat pourrait concourir au travers d’Oseo et de la BPI. Cela fait partie des réflexions en cours.

Beaucoup d’industriels, parfois de premier plan, n’utilisent toujours pas le calcul intensif. Qu’est-ce qui pourrait les inciter à franchir le pas ?

C’est un problème typiquement français, qui ne touche pas exclusivement le calcul intensif : l’informatique est vue comme un centre de coût et non comme un centre de profit. Toutefois, avec les clouds, il se pourrait que cela change. Quand vous transformez du capex en opex [de l’investissement en dépenses de fonctionnement – ndlr], les financiers apprécient et le reste suit, généralement…

Y a-t-il suffisamment d’ingénieurs, de chercheurs formés en France sur la simulation numérique ?

La formation constitue ma toute dernière recommandation. Il faut impérativement que les grands centres universitaires proposent des formations supérieures à la simulation. C’est un enjeu dont on ne dira jamais assez l’importance. Teratec a été à l’initiative de Mastères spécialisés avec l’UVSQ, Centrale et l’ENS Cachan. C’est ce modèle que l’on doit généraliser. Il nous faut des spécialistes qui soient à la fois informatique et numérique. Et il faut que les formations professionnelles aient systématiquement recours à la simulation, que se soit dans les écoles d’ingénieurs ou dans les facs. Toutes les grosses structures que l’on cherche à mettre en place sur le plateau de Saclay ou à Grenoble doivent offrir des cursus de formation supérieure de spécialistes de la simulation. Ces éléments pourraient être déclinés dans le cadre des plans industriels – c’est là encore un des sujets de réflexion du moment.

Pour conclure, où en sont les projets d’extensions futures du campus Teratec de Bruyères-le-Châtel ?

Une troisième tranche de construction est prévue, pour laquelle on a quelques prospects. Cette troisième tranche visera à développer des services, en particulier dans le cloud et le conseil en ingénierie. Pour ne rien vous cacher, on réfléchit actuellement à une éventuelle quatrième tranche. La crise économique que l’on vient de traverser n’a pas facilité les choses, mais l’effet d’entraînement propre au secteur HPC ne se dément pas…

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index