Au-delà du Deep Learning et des réseaux neuronaux
By   |  September 14, 2015

Dans cette interview exclusive, le professeur Dr Micheal Feindt, fondateur de Blue Yonder et conseiller scientifique en chef, nous en dit plus sur les technologies d’analyse prédictive de l’entreprise et comment un nouveau type d’automatisation de prise de décision pourrait bientôt révolutionner la façon dont la science – ainsi que les entreprises – peuvent évoluer.

Blue Yonder combine des méthodes analytiques de classe mondiale avec un logiciel professionnel d’entreprise, la connaissance en profondeur de nombreux marchés verticaux et une offre de service cloud afin de servir les entreprises en matière d’analyse prédictive (y compris l’évaluation de l’incertitude et le calcul des risques) afin d’optimiser et d’automatiser les prises de décision.

Le terme «analyse prescriptive” signifie non seulement fournir la prédiction, mais aussi optimiser la décision qui sera prise sur cette base et fournir cela pour guider l’expert humain. Détail amusant : nous observons que les biais cognitifs permettent également à l’humain de décider à tort dans ce cas. Souvent l’intuition contredit la proposition de la machine.

HPC Review : Parlez-nous des origines de Blue Yonder et de ce que vous proposez.

Michael Feindt: Blue Yonder a été fondée en 2008 à partir de mon entreprise précédente Phi-T et le groupe OTTO, deuxième plus grande société de vente à distance de monde après Amazon. Fin 2014, la société d’investissement internationale privée Warburg Pincus a annoncé un investissement de 75 millions de dollars dans Blue Yonder, le plus grand investissement technologique en Europe en 2014.
    
Blue Yonder combine des méthodes analytiques de classe mondiale avec un logiciel professionnel d’entreprise, la connaissance en profondeur de nombreux marchés verticaux et une offre de service cloud afin de servir les entreprises en matière d’analyse prédictive (y compris l’évaluation de l’incertitude et le calcul des risques) afin d’optimiser et d’automatiser les prises de décision. Cela a des conséquences profondes et est vraiment disruptif.

HPC Review : Pour quelle raison proposer l’analyse prédictive de Blue Yonder comme un service cloud plutôt que comme un applicatif destiné à être exécuté sur des ressources on premise ?

Feindt: Notre expérience démontre qu’il est très difficile pour les entreprises d’attaquer de grands projets d’analyse de données, car ils ont besoin de l’expertise dans de nombreux domaines – leur expérience en affaires, mais aussi les mathématiques, les statistiques, le machine learning, le génie logiciel, la gestion des données, ainsi que le matériel et l’expérience opérationnelle. Nous pensons qu’il est plus facile, plus rapide et efficace si nous regroupons toute cette expertise supplémentaire au sein de Blue Yonder afin que nos clients puissent se concentrer sur leur cœur de métier et externaliser la complexité mathématique et technique. En outre, les data scientists d’envergure aiment travailler au sein d’un grand groupe composé de data scientists d’exception.

Contrairement aux grands projets logiciels on premise habituels l’investissement initial est beaucoup plus faible, le temps de mise sur le marché est considérablement réduit, et le taux d’échec est de zéro.

HPC Review: Le service de Blue Yonder est basée sur l’algorithme NeuroBayes que vous avez développé. Pouvez-vous décrire en termes simples ce que cet algorithme accomplit?

Feindt: Le cœur de NeuroBayes est un réseau neuronal de deuxième génération, avec régularisation bayésienne, lequel outre la classification simple est capable de prédire des distributions de probabilité individualisés complets pour des quantités à valeurs réelles, lesquels constituent la base pour la prise de décisions optimales. Cependant, au fil du temps des mesures de prétraitement de plus en plus robustes ont été introduites, et de nombreux autres algorithmes efficaces ont été développés chez Blue Yonder. Globalité, robustesse, apprentissage et vitesse de prédiction, et évolutivité sont les critères de conception importants pour nos algorithmes. Récemment, nous avons également mis l’accent sur l’intelligibilité et la reconstruction des effets de causalité à partir de données historiques. Ainsi, la bibliothèque de l’algorithme de Blue Yonder est désormais bien plus vaste et capable que l’algorithme NeuroBayes originel.

Dans tous les cas, nous analysons de grands systèmes complexes et apprenons automatiquement à partir des exemples passés ce que les quantités observables (de toute nature) critiques peuvent nous dire sur une autre quantité de données dans un proche avenir, comme par exemple le nombre de pommes Granny Smith dans le Supermarché XYZ à Baker Street demain. La prédiction est fournie sous la forme d’une densité de probabilité, c’est à dire que pour chaque futur possible (le nombre de pommes vendues demain dans cette boutique) est attribué une probabilité. Bien sûr, cette répartition devrait idéalement être aussi étroite que possible, mais pas à l’excès. Ainsi, les déclarations statistiques sont individualisées. Sur cette base, des décisions mathématiquement optimales peuvent être prises, étant donné que nous connaissons les écarts de coût dans les différentes hypothèses en fonction de notre prise de décision.

HPC Review: En quoi la technologie différe-t-elle des autres systèmes de réseaux neuronaux comme ceux utilisés par les sociétés de moteurs de recherche pour classer les images?

Comme déjà indiqué, nos développements se tournent dans la direction opposée: nous ne cherchons pas à imiter le cerveau humain, mais à construire des modèles efficaces, robustes et rapides. Les calculs de statistique bayésienne en sont un ingrédient clé. Le caractère “neuronal” n’est pas important dans le développement récent, mais la possibilité de prédire des densités conditionnelles l’est.

Les modèles hiérarchiques jouent un rôle, mais il nous est souvent plus pratique (et beaucoup plus rapide) d’utiliser nos propres réseaux neuronaux pour définir la hiérarchie plutôt que de laisser un réseau profond l’apprendre.

HPC Review : Quelles sortes d’organisations utilisent l’offre Blue Yonder? Pouvez-vous parler de certains problèmes spécifiques qui ont été abordés?

NeuroBayes a été initialement développé pour la physique expérimentale des particules élémentaires, et est toujours utilisé avec un succès considérable à des expériences au CERN (Genève), Fermilab (Etats-Unis) et la KEK (Japon).

L’un des derniers développements en date a porté sur la reconstruction complètement automatique des chaînes de production des usines de type B – ici l’opération d’automatisation s’est révélée plus de deux fois plus efficace dans la reconstruction de mésons B que si l’on avait réuni 400 physiciens pendant 10 ans. Un autre développement remarquable a porté sur la mise en œuvre de l’expert NeuroBayes dans le matériel pour les usines de type B de la prochaine génération Belle II. Ici, ce sont plus de 10 milliards de décisions prises directement à partir d’un réseau de capteurs afin de savoir quelles sont les parties du détecteur devant être remontées vers les ordinateurs.

Les clients les plus importants de l’offre Blue Yonder sont les grandes entreprises du commerce de détail, du voyage et du transport, et de l’industrie. Blue Yonder effectue des prévisions de la demande et même l’automatisation de la décision complète de la chaîne d’approvisionnement pour de nombreux détaillants et pour la grande distribution. La tarification dynamique est un sujet brûlant avec un immense potentiel, aussi bien pour les sites d’e-commerce que pour les magasins traditionnels. Dans l’optimisation du marketing, nous avons mis au point un nouvel algorithme pour prédire si un client va changer son comportement s’il reçoit un catalogue.

HPC Review: Comment la technologie peut-elle aider les entreprises à améliorer leur fonctionnement? Et notamment comment l’analyse prédictive peut-elle les aider à automatiser leurs processus ?

Une des applications phare est la prédiction de la demande de chaque article unique dans chaque magasin unique et ce, chaque jour et suivi du calcul de commandes optimales. Cela est d’une grande valeur notamment en matière d’aliments périssables. Pour un client, nous avons ainsi pu éviter le gaspillage alimentaire de l’ordre de 25 millions d’euros par an, tout en réduisant les épuisements de stock. Le secret est l’individualisation – il s’agit non seulement d’optimiser un objectif stratégique, mais de le décomposer en des milliers ou des millions de décisions opérationnelles chaque jour. Aucun humain ne peut prendre en compte autant de facteurs sur autant d’articles chaque jour afin d’adopter constamment la meilleure stratégie.

Le terme «analyse prescriptive” signifie non seulement fournir la prédiction, mais aussi optimiser la décision qui sera prise sur cette base et fournir cela pour guider l’expert humain. Détail amusant : nous observons que les biais cognitifs permettent également à l’humain de décider à tort dans ce cas. Souvent l’intuition contredit la proposition de la machine. Le plein potentiel, jusqu’à quatre fois l’effet de la prescription, ne sont recueillis que si une automatisation complète (99,9%) est accomplie, en ne confiant à l’humain que la gestion des exceptions.

 Il existe de nombreux autres exemples de ce genre, et ils vont tous dans la même direction. Je suis très confiant dans le fait que les décisions opérationnelles et le travail des cadres seront de plus en plus automatisés.

HPC Review : Certains professionnels peuvent s’inquiéter d’un tel niveau d’automatisation pour des décisions traditionnellement prises par l’homme. Que leur répondez-vous pour apaiser ces craintes?

C’est vrai. La confiance se construit, et nos références nous y aident bien sûr. Mais Lénine le savait déjà : accepter quoi que ce soit sur la confiance, en excluant l’appréciation critique et le développement, est un défaut grave. Dieu merci, l’amélioration est mesurable. Les tests A / B ont souvent démontré que les algorithmes modernes sont plus performants que les décisions humaines sur un grand nombre de cas, même en présence de KPI classiques habituellement contradictoires. La méthode habituelle consiste à démarrer un test avec de petits groupes de magasins et d’articles pour prouver que cela fonctionne vraiment, puis de le déployer complètement en quelques étapes, avec un contrôle à chaque étape. Ce qui permet de minimiser le risque et de construire la confiance.

Mais en dépit de tous les arguments rationnels, l’on rencontre souvent une certaine résistance à l’égard du changement et de l’innovation – en particulier dans les systèmes hiérarchiques. Pour réussir une telle transformation, l’entreprise a besoin de référents en interne et de bien communiquer et organiser le changement. Le danger de ne pas mettre en place une politique d’automatisation ou de la retarder trop longtemps est la concurrence forte : l’avantage induit est si grand qu’il pourrait tuer les entreprises complètes si leurs concurrents deviennent plus efficaces.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index