Compte-rendu GPU Technology Conference 2015
By   |  July 11, 2015

Cap sur le deep Learning !

Après le Machine Learning en 2014, le Deep Learning est le thème principal choisi pour la sixième occurrence de la GPU Technology Conference. 4000 inscrits en provenance de 50 pays sont venus pour non seulement écouter, apprendre et tester toutes les façons d’utiliser les GPU mais aussi entrevoir les récentes avancées comme celles à venir. Le rendez-vous annuel de tout un écosystème réuni au San José McEnery Convention Center autour de 500 sessions elles-mêmes regroupées autour d’une trentaine de thèmes dont le Cloud Computing & HPC, Supercomputing, Automotive, augmented and virtual reality, computer vision sans oublier le machine learning et le deep learning.

C’est Jen-Hsun Huang, CEO et fondateur de la société Nvidia qui a ouvert le bal avec un discours basé sur les quatre principales annonces relatives à cet événement et toutes étroitement associées au Deep Learning : un GPU, une DevBox, une roadmap et un système de pilotage automatique de voiture. Pourquoi le Deep Learning à l’honneur cette année ? Car depuis peu, un ordinateur a pour la première fois battu un humain en reconnaissance d’image et pour J-H H ce n’est qu’un début car bientôt il ne sera plus que question de Deep Learning.

Pour que tout ceci soit possible, une seule solution : la vitesse car sans vitesse impossible de reconnaître une image dans un laps de temps raisonnable, impossible de passer à l’étape technologique suivante. En l’occurrence, ce pas en avant deviendra réalité grâce, entre autres, à TITAN X, dernier né dans la gamme de GPU de Nvidia. Pour 999 $, il peut en moins de 3 jours faire tourner le projet AlexNet, un deep neural network qui permet à un ordinateur de reconnaître des images. Précision poru mesurer le chemin accompli : ce même projet nécessite 43 jours avec une CPU 16 cœurs Xeon et plus que 6 avec la version TITAN originale née il y a environ un an et demi.

C’est aussi l’opportunité pour Nvidia de sortir une solution clé en main sous la forme d’une DevBox ultra rapide. Car l’arrivée du Deep Learning est désormais en voie de se démocratiser grâce notamment à la combinaison d’algorithmes de haut vol tournant au sein de deep neural network et de la capacité de traiter des jeux de données sans aucune mesure en termes de taille du fait de l’avènement du Big Data. Tout cela couplé à de la puissance CPU grâce aux dernières évolutions des GPU.

Le Deep Learning est ainsi arrivé au cœur des préoccupations des plus grandes sociétés technologiques du moment, IBM, Microsoft, Google, Baidu ou Facebook etc. lesquels avauient également fait le déplacement pour présenter leurs recherches en cours en ce sens. Même chose pour les centres de recherche de tous bords et notamment ceux d’ordre médical, pour lesquels ces avancées ouvrent de nouvelles possibilités en matière de recherche, dépistage et calcul du génome humain. Les algorithmes nécessaires pour faire du Deep Learning ne cessent donc de progresser alors que la technologie arrive au niveau adéquat pour que l’ensemble devienne réalité. Le moment donc de proposer une solution allant dans ce sens pour Nvidia. La nouvelle box ultra rapide est composée d’un kit logiciel, DIGITS, dont la fonction est de faciliter la mise en œuvre du Deep Learning. Comment ? En permettant de traiter des monceaux de données grâce aux processeurs GPU de la box, de configurer simplement un deep neural network et de superviser les différentes étapes lorsque l’algorithme de Deep Learning tourne et aussi de les visualiser. Baptisée la DIGITS DevBox, elle contient naturellement des GPU TITAN X tournant sous du Linux sur lequel vient s’installer l’algorithme de Deep Learning. La cible ici est naturellement l’ensemble des chercheurs spécialisés du domaine concerné qui, à partir de 15000 dollars, pourront se concentrer sur leur travail de recherche.

La GPU Technology Conference était également l’opportunité pour le CEO de Nvidia de dévoiler la roadmap des architectures GPU à venir. Ainsi PASCAL en étant 10 fois plus rapide sera le successeur de l’actuelle architecture Maxwell : 3 fois son niveau et doté de 2,7 fois plus de capacité avec une mémoire 3D, et le bus NVLink ouvrant de nouvelles possibilités d’interconnexions GPU.

Enfin sur la route, Nvidia propose le Drive PX self driving car computer qui propulse les systèmes ADAS (advanced driver assistance systems) utilisés dans les voitures dans l’ère du Deep Learning. Pour 10000 $, dès le mois de mai de cette année, les spécialistes de ce genre de système pourront augmenter de façon plus que sensible les capacités de détection d’obstacles pour les voitures.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index