GTC'14 – La DARPA et le Big Data : pas si secret…
By   |  March 25, 2014

En attendant la très attendue keynote de Jen-Hsun Huang, CEO de NVIDIA, cette session était l’une des toutes premières des quatre intenses journées qui constituent la GPU Technology Conference de San José. Dans une salle comble, nombreuses étaient les oreilles venues écouter Christopher White, Project manager à la DARPA, nous dévoiler quelles techniques la défense américaine utilise pour traiter ses énormes volumes de données – avec un focus tout particulier sur les GPU qui, tout le monde le sait, en sont friands !

A défaut de vraiment rentrer dans les détails opérationnels, c’est plutôt à un recrutement d’experts en programmation GPU que nous avons assisté. Et quand la DARPA veut recruter, elle sait y mettre les moyens. La défense américaine doit en effet traiter des volumétries hors du commun, qu’elle recueille à partir de systèmes d’information tels que les capteurs disséminés ça et là sur les théâtres d’opérations militaires, de tweets, d’observation du Web, etc., – tous types de données, structurées ou non, qui doivent être analysées en flux tendu.

Bien que les GPU aient un gros potentiel dans le traitement analytique, seuls deux projets sur une dizaine dans ce domaine les utilisent, dont notamment XDATA, géré précisément par Christopher White, qui consiste à développer rapidement une collection d’outils logiciels pour la gestion du Big Data. Le caractère “urgent” de la mission et la spécificité des GPU en matière de programmation amènent donc la DARPA à solliciter l’aide de la communauté CUDA. Pour l’anecdote, les codes développés dans le cadre de ce projet sont Open Source. Comme quoi le manque cruel d’expertise peut amener à des sacrifices…

© HPC Today 2021 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index