Data Lake / Datahub
Buzzword ou réalité ? Force est de constater la volonté de nombreuses entreprises de disposer d'un Data Lake. Méthode de stockage visant à décharger les données des applications, des systèmes décisionnels en vue de conservation ou de terrain de jeu pour de la Data Science les motivations sont multiples. Leur souhait primaire correspond souvent à la volonté de préserver et historiser les données de l'entreprise en vue de mener des analyses poussées (exploiter l'or noir des données) sans en avoir forcément préconçu les cas d'usages. Pour les plus matures sur le sujet on distingue deux besoins distincts parfois complémentaires. La baisse des coûts de stockage ou encore la facilité de recourir au Cloud devraient faire germer de nombreux projets sur les 18 mois à venir.
Le Data Hub, quant à lui, consiste à fluidifier les échanges de données dans l'entreprise en les exposant dans un espace commun plutôt que développer des interfaces point à point systématique.
Maintenance prédictive
Prévoir les défaillances avant qu'elles ne surviennent, tel est l'enjeu de la maintenance prédictive. La prolifération de capteurs, d'objets connectés désormais bon marché, les plateformes IoT associées aux moteurs de traitement de données permettent d'appréhender ces sujets complexes avec une efficacité redoutable. Les coûts sont souvent couverts par les gains multiples qu'apportent ces techniques : assurer une durée plus longue de disponibilité de chaines de production, de moyens de transports. Optimiser les consommations énergétiques, apporter plus de sécurité, de qualité, les retours sur investissement sont nombreux et tangibles.
Jumeau digital
Basé sur les données issues de capteurs, le jumeau digital a pour vocation de créer un double virtuel de tout équipement réel. Véritables clones, leurs données permettent soit de rejouer le passé sur une tranche de temps soit d'être utilisées pour simuler des comportements prémédités. Ces procédés sont utilisés pour simuler virtuellement le comportement des véhicules autonomes par les constructeurs automobile ou les producteurs d'énergie qui clones les fonctionnements d'éoliennes. Nous allons progressivement voir ces dispositifs remplir notre quotidien sur de nombreux thèmes notamment l'e-santé ou la domotique.
Universal Semantic Data Layer
Disposer de données nombreuses, partout, accessibles avec de nombreux outils c'est bien. Y accéder simplement, de manière sécurisée avec la certitude de bien manipuler ce que l'on cherchait, moins. Nous avons vu apparaitre les applications de catalogage qui recensent les sources de données sans toutefois apporter de gage de sécurité des données. Place aux solutions sémantiques universelles qui, à l'instar de ce que proposait l'univers de la solution Business Objects permettront d'apporter ce même confort à tout type d'outil sur n'importe quel type de source ou de plateforme.
Real Time 2 Cloud
L'hybridation On Premise / Cloud est déjà une réalité. Toutefois on dispose de peu de recul sur des solutions synchrones permettant de répliquer en temps réel des bases on premise et leurs pendant Cloud. Les scénarios sont pourtant porteurs d'avantages. Reporting "à chaud" sur des bases externes à celles de production, migration applicative ou consolidation de données ou d'applications, archivage à la volée des données dans un DataLake. Un "must have" à consommer sans modération.
Process mining
Utiliser la Data Science dans les process et en particulier dans leur optimisation est une tendance lourde et un réel facteur de compétitivité pour les éditeurs. SAP, en rachetant Kxen il y a quelques années, a su mettre à profit cette expertise pour distiller des modèles au sein des process gérés par son ERP. Salesforce avec Einstein propose au cœur de ses solutions Cloud des algorithmes permettant d'orienter le commercial vers les clients les plus rentables, mettre en évidence ceux qui sont négligés et pourtant à fort potentiel. Moins spectaculaire que les projets big data mais bien plus efficace, pragmatique et rentables pour les entreprises souhaitant mettre des assistants intelligents au cœur de leurs process.
Buzzword ou réalité ? Force est de constater la volonté de nombreuses entreprises de disposer d'un Data Lake. Méthode de stockage visant à décharger les données des applications, des systèmes décisionnels en vue de conservation ou de terrain de jeu pour de la Data Science les motivations sont multiples. Leur souhait primaire correspond souvent à la volonté de préserver et historiser les données de l'entreprise en vue de mener des analyses poussées (exploiter l'or noir des données) sans en avoir forcément préconçu les cas d'usages. Pour les plus matures sur le sujet on distingue deux besoins distincts parfois complémentaires. La baisse des coûts de stockage ou encore la facilité de recourir au Cloud devraient faire germer de nombreux projets sur les 18 mois à venir.
Le Data Hub, quant à lui, consiste à fluidifier les échanges de données dans l'entreprise en les exposant dans un espace commun plutôt que développer des interfaces point à point systématique.
Maintenance prédictive
Prévoir les défaillances avant qu'elles ne surviennent, tel est l'enjeu de la maintenance prédictive. La prolifération de capteurs, d'objets connectés désormais bon marché, les plateformes IoT associées aux moteurs de traitement de données permettent d'appréhender ces sujets complexes avec une efficacité redoutable. Les coûts sont souvent couverts par les gains multiples qu'apportent ces techniques : assurer une durée plus longue de disponibilité de chaines de production, de moyens de transports. Optimiser les consommations énergétiques, apporter plus de sécurité, de qualité, les retours sur investissement sont nombreux et tangibles.
Jumeau digital
Basé sur les données issues de capteurs, le jumeau digital a pour vocation de créer un double virtuel de tout équipement réel. Véritables clones, leurs données permettent soit de rejouer le passé sur une tranche de temps soit d'être utilisées pour simuler des comportements prémédités. Ces procédés sont utilisés pour simuler virtuellement le comportement des véhicules autonomes par les constructeurs automobile ou les producteurs d'énergie qui clones les fonctionnements d'éoliennes. Nous allons progressivement voir ces dispositifs remplir notre quotidien sur de nombreux thèmes notamment l'e-santé ou la domotique.
Universal Semantic Data Layer
Disposer de données nombreuses, partout, accessibles avec de nombreux outils c'est bien. Y accéder simplement, de manière sécurisée avec la certitude de bien manipuler ce que l'on cherchait, moins. Nous avons vu apparaitre les applications de catalogage qui recensent les sources de données sans toutefois apporter de gage de sécurité des données. Place aux solutions sémantiques universelles qui, à l'instar de ce que proposait l'univers de la solution Business Objects permettront d'apporter ce même confort à tout type d'outil sur n'importe quel type de source ou de plateforme.
Real Time 2 Cloud
L'hybridation On Premise / Cloud est déjà une réalité. Toutefois on dispose de peu de recul sur des solutions synchrones permettant de répliquer en temps réel des bases on premise et leurs pendant Cloud. Les scénarios sont pourtant porteurs d'avantages. Reporting "à chaud" sur des bases externes à celles de production, migration applicative ou consolidation de données ou d'applications, archivage à la volée des données dans un DataLake. Un "must have" à consommer sans modération.
Process mining
Utiliser la Data Science dans les process et en particulier dans leur optimisation est une tendance lourde et un réel facteur de compétitivité pour les éditeurs. SAP, en rachetant Kxen il y a quelques années, a su mettre à profit cette expertise pour distiller des modèles au sein des process gérés par son ERP. Salesforce avec Einstein propose au cœur de ses solutions Cloud des algorithmes permettant d'orienter le commercial vers les clients les plus rentables, mettre en évidence ceux qui sont négligés et pourtant à fort potentiel. Moins spectaculaire que les projets big data mais bien plus efficace, pragmatique et rentables pour les entreprises souhaitant mettre des assistants intelligents au cœur de leurs process.
Autres articles
-
Boomi et VISEO officialisent leur partenariat pour accompagner les entreprises dans leurs projets stratégiques de Data Management
-
VISEO se dote de l’expertise de Sidetrade comme puissant levier de transformation et d’innovation
-
Repenser le prototypage de vos solutions avec SAP Build
-
Les dessous d’un projet de Data Science
-
Viseo lance Data Exploration Lab, son offre d'analyse exploratoire de la data