HPC et médecine : des avancées décisives
By and   |  January 06, 2014

Recherche, pratiques de pointe, approches prédictives… la médecine connaît aujourd’hui une révolution – le mot n’est pas trop fort – liée à la démocratisation du calcul intensif et des technologies Big Data. Les progrès sont exponentiels, les perspectives très prometteuses…

Conférence après conférence, les prix qui couronnent les travaux scientifiques majeurs font la part de plus en plus belle aux applications médicales du calcul intensif. Ce n’est pas un hasard. Les biosciences, l’e-Santé et le drug design sont parmi les premières à bénéficier des avancées concrètes du HPC. Exemple type, choisi pour son éloignement afin que personne ne soit vexé, celui du St Vincent’s Institute australien. En simulant, avec IBM Research et le soutien de l’Université de Melbourne, le développement d’un virus au niveau atomique, les chercheurs sont parvenus à faire “vivre” un rhinovirus sur Avoca, le plus puissant calculateur en production en Australie (Blue Gene/Q, 838 Tflops). Ce type de virus est responsable d’environ 40 % des rhumes. Il est par ailleurs impliqué dans 70 % des cas d’asthme. Le modèle élaboré simule non seulement les 3 millions d’atomes de l’enveloppe du rhinovirus dans son environnement aqueux, mais aussi son génome, un brin d’ARN comprenant 7 200 bases. Ce faisant, l’équipe dirigée par Michael Parker cherche à valider virtuellement le comportement de nouvelles molécules curatives et préventives avant les tests in vitro et in vivo. L’utilisation de ce modèle est ainsi porteuse d’espoirs pour la santé de chacun d’entre nous, mais également synonyme d’économies qui, appliquées au seul domaine de la recherche, pourraient atteindre plusieurs dizaines de millions de dollars par an.

Modéliser une entité biologique à combattre – ici un rhinovirus – pour simuler son comportement permet de tester des principes actifs in silico, avant de lancer les batteries de tests classiques in vitro et in vivo.

La fin du modèle réductionniste

A l’évidence, ces nouvelles méthodes ont tout pour séduire le secteur pharmaceutique. Le nombre des médicaments approuvés par les grandes autorités de contrôle nationales, FDA en tête, décline en effet sensiblement depuis le milieu des années 90, précisément à cause de l’envolée des coûts de développement. Pourquoi ? Parce que l’approche “réductionniste” telle que la présentait le gériatre Philippe Guillet lors du forum Teratec 2013 est devenue trop coûteuse. Fondée en grande partie sur le hasard – d’aucuns diront la sérendipité – elle consiste à sélectionner une molécule et à étudier ses effets sur des cultures de cellules, puis sur des animaux, puis si tout va bien à entamer une phase d’expérimentation sur l’homme. A chaque étape de “l’affinage”, un certain nombre de variantes sont écartées en fonction des résultats cliniques observés et d’éventuels effets secondaires, de sorte que peu, au final, atteignent le stade final de la commercialisation.

La quête du blockbuster, capable de guérir tous les types de malades, est ainsi de plus en plus difficile à poursuivre pour les laboratoires. Elle devrait, progressivement, céder la place à approche plus systémique où les médicaments seront élaborés pour des groupes d’individus et personnalisés en fonction de leur génotype. Ce progrès, réel, n’est envisageable que grâce aux développement des méthodes et technologies de calcul – HPC pour la simulation multiéchelle et Big Data pour les analyses statistiques des données de test. A terme, c’est une nouvelle vision de la médecine et de la relation médecin-malade qui se dessine, sur le principe des “4P” chers au Pr Luc Montagnier (prédiction, prévention, personnalisation, participation). Le patient ne se rend plus chez son médecin à l’apparition des symptômes, mais bien en amont, pour éviter de tomber malade. Détecter le plus tôt possible les probabilités pathologiques permet d’éviter leur apparition, ou si ce n’est pas le cas de les traiter avec des molécules sur mesure, mieux tolérées. Quant au volet participatif, il fait appel au Web 2.0, y compris les médias sociaux au travers desquels l’ensemble de la population échange sur sa santé. Grâce à eux, le corps médical est à même de mieux impliquer les patients dans les prises de décision, mais aussi de détecter des tendances voire des épidémies avec une précision sans cesse accrue.

Cet aspect social peut paraître anecdotique et pourtant, outre qu’il améliore le niveau d’information des patients, c’est un outil de recherche en soi. En épidémiologie, ce sont les médecins et plus généralement les systèmes de santé qui remontent les informations liées aux maladies infectieuses et permettent ainsi de détecter les débuts d’épidémies. En France, le réseau Sentinelles, mis en place par l’Inserm et l’UPMC, collecte l’information auprès d’environ 1 300 généralistes. La grippe, la rougeole et l’urétrite masculine sont ainsi suivies depuis 1984 – de nombreuses autres maladies infectieuses venant enrichir les bases de données du projet année après année. Mais cet outil est aujourd’hui concurrencé par le Web. Depuis quelques années, Google a mis en place un système de suivi de la grippe et de la dengue à partir des recherches des internautes. Il se fonde uniquement sur les requêtes servies, partant du principe qu’un individu commence à rechercher des informations sur une maladie dès qu’il en ressent les premiers symptômes – ce que Google peut facilement repérer, localiser et comptabiliser. Cette méthode, typiquement issue des pratiques Big Data, a clairement montré sa pertinence sur la grippe. Google l’a complétée d’un calcul prédictif qui permet au moteur de recherche de publier une estimation de l’avancée de l’épidémie avec une précision que les spécialistes qualifient d’étonnante.

Navigation

<1234567>

© HPC Today 2020 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index