16 serveurs GPU pour 11 milliards de synapses
By   |  July 11, 2013

Une nouvelle étape vient d’être franchie dans la modélisation de notre cher cerveau et de ses processus d’apprentissage. Une équipe de chercheurs du laboratoire d’intelligence artificielle de Stanford a en effet annoncé avoir créé le réseau neuronal artificiel le plus étendu à ce jour. Le record s’établit désormais à 11,2 milliards de paramètres (traduisez de synapses virtuelles), soit 6,5 fois plus que le précédent réseau, créé en 2012 par Google pour, notamment, identifier les chats dans les vidéos YouTube. L’un des points les plus intéressants de cette initiative, dirigée par le Pr Andrew Ng, réside dans les choix techniques ayant permis son implémentation. Là où Google avait utilisé une plateforme comprenant un milliers de serveurs CPU (16 000 cœurs environ), 16 serveurs commodity doté d’accélérateurs GPU NVIDIA ont cette fois-ci suffi. Une démonstration emblématique de ce que l’apprentissage automatique en intelligence artificielle est aujourd’hui à la portée de la plupart des budgets. Et constitue donc plus que jamais une alternative crédible à la reconnaissance programmée des formes, des personnes, des sons et de la voix. L’article complet décrivant le projet est disponible sur le site de l’International Conference on Machine Learning, qui s’est tenue fin juin à Atlanta.

© HPC Today 2024 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index