Le Big Data continue à avancer au-delà de l’abîme en 2016
By   |  January 22, 2016

Quentin Gallivan est CEO de Pentaho

ACTIVER LES BIG DATA ET CROISER LES DONNÉES
Ces deux axes vont très largement se développer et bien plus que nous ne l’aurions imaginé en 2010 lorsque nous avons démarré avec Hadoop. Alors que les entreprises et la société sont confrontées à grande échelle à des problèmes et opportunités systémiques liés à la sécurité, à l’environnement, à la santé et à l’économie, une plateforme qui croise des données non structurées et relationnelles devient un outil multifonction indispensable. A titre d’exemple, le croisement des données est utilisé par un de nos principaux clients du marché des télécommunications pour stopper les risques potentiels de cybercriminalité ou encore par un client du commerce de détail pour augmenter ses revenus et fidéliser ses clients en personnalisant les recommandations dans les magasins. En 2016, la demande va s’accentuer en termes de sophistication. Notamment, les clients attendront des commerçants des recommandations ultra-personnalisées sur ce qu’ils désirent, au moment opportun, sur le bon appareil, et avec des transactions commerciales électroniques simples et sécurisées. Le potentiel du croisement des données dans des secteurs aussi variés que la télémétrie automobile, la science médicale ou encore la sécurité nationale est énorme, et nous n’en sommes qu’au commencement.

L’INTERNET DES OBJETS, UNE RÉALITÉ
Le cabinet McKinsey estime que l’IOT créera de 3,9 trillions à 11,1 trillions de valeur économique d’ici 2025. Les principaux cas d’utilisation qui mènent cette transformation incluent la Maintenance Prédictive, les Smart Cities et les Smart Homes. Les grandes sociétés industrielles non perçues comme faisant partie de l’économie de l’internet peinent à transformer autour de l’internet industriel. Ces entreprises fabriquent, transportent, vendent et supportent des biens matériels et des capteurs reliés à internet. L’arrivée de ces biens matériels dans l’internet présente une myriade de nouveaux défis et opportunités dans les domaines de la gouvernance des données, des standards, de la santé et de la sécurité, et de la chaine logistique, pour n’en citer que quelques-uns. Les entreprises doivent commencer à planifier dès à présent ou risquent de rester à la traîne.

L’ANALYTIQUE DE NOUVELLE GÉNÉRATION SERA EMBARQUÉE ET FOURNIE AU POINT D’IMPACT.
De nombreux directeurs informatiques perçoivent l’analytique comme le moyen d’augmenter les revenus, de réduire les coûts et de rendre l’entreprise plus productive. Le modèle classique d’une Business Intelligence, où l’analyste des données utilise un outil extérieur au flux de l’application pour analyser l’historique des données, est vu comme quelque chose d’utile. La prochaine génération d’analytique, où les utilisateurs métier utilisent l’analytique comme un élément de leurs applications métier quotidiennes, sera considérée comme cruciales.

DES OUTILS GENIAUX PRÊTS POUR LE PRIME TIME
On assiste à l’explosion d’outils open source émergeants tels que Spark, Docker, Kafka, Solr, conçus pour permettre des d’importants volumes d’analyses à grande échelle sur des péta-octets de données. Ces outils sont essentiels pour accélérer l’innovation et deviennent plus matures. L’environnement de traitement en mémoire de Spark, qui est la clé du machine learning et du data streaming en temps réel sur de larges volumes de données, est actuellement piloté par Databricks et Cloudera, et adopté par de grades entreprises technologiques telles qu’IBM. Chez Pentaho, nous nous félicitons de mener l’innovation open source et d’inclure ces technologies passionnantes dans notre plateforme tout en assurant qu’elles sont éprouvées pour une utilisation par nos clients. En début d’année nous avons annoncé l’intégration de Spark à la plateforme Pentaho. Attendez-vous à des annonces encore plus intéressantes l’année prochaine !

LE CLOUD, MODÊLE PRIVILEGIÊ POUR UN DÊPLOIEMENT BIG DATA.
Lors de notre dernier Conseil Stratégique Consultatif, presque tous les membres avaient déployé leurs applications Big Data dans le cloud, ou projetaient de la faire. Notamment l’Autorité de régulation des marchés financiers FINRA, qui opère dans un environnement hautement sécurisé, qui traite et cherche des anomalies dans un volume gigantesque de 75 milliards de transactions chaque jour. Les entreprises veulent avoir le choix de déployer des applications Big Data soit derrière le firewall, 100% dans le cloud ou dans un environnement hybride de cloud privé et public.

L’EXPÉRIENCE UTILISATEUR SERA L’INVESTISSEMENT MAJEUR DANS L’ECOSYSTEME ANALYTIQUE DU BIG DATA.
Elle commence par le cloud, mais va plus loin dans la conception d’une meilleure expérience utilisateur pour le streaming et l’analyse prédictive. Il s’agit également d’intégrer de nouvelles technologies sécurisées telles que la reconnaissance faciale pour rassurer les utilisateurs que leurs données sont en sécurité et fiables. La vitesse en temps réel est également une composante clé de l’expérience utilisateur. Nos clients nous disent qu’Hadoop reste trop difficile et espèrent que les fournisseurs investissent pour rendre l’expérience client plus simple. Plus nous la simplifions, plus nous offrons des cas d’utilisation pour l’entreprise.

© HPC Today 2019 - All rights reserved.

Thank you for reading HPC Today.

Express poll

Do you use multi-screen
visualization technologies?

Industry news

Brands / Products index