Pierre Formosa, Responsable Avant-Vente, Umanis
C’est dans ce contexte que les appliances (solutions packagées alliant le software au hardware) se sont développées. Leur expansion est bien évidemment à rapprocher avec une conjonction de facteurs déterminants : l’apparition des processeurs multi-cœur, la baisse du coût de la mémoire et enfin l’utilisation de bases de données vectorielles (bases de données « in-memory ») qui apportent un taux de compression élevé et permettent de stocker en mémoire une volumétrie importante d’information.
Il s’agit donc là d’une nouvelle approche de la Business Intelligence qui permet l’émergence d’une BI dite instantanée.
Les solutions les plus représentatives de ce concept se retrouvent chez Teradata, Oracle et IBM. En pratique, l’appliance représente une solution plus performante, plus maintenable et propose une réelle sécurité en terme de stabilité des performances de la solution (scalabilité).
Les appliances prônent donc une nouvelle approche de la Business Intelligence en substituant la composante In-Memory à la phase de stockage physique des données.
SAP HANA propose aux utilisateurs de se concentrer sur l’important c'est-à-dire l’analyse, et non plus sur la construction des composants de cette analyse. Un nouvel espace de liberté s’offre aux utilisateurs dans ses capacités d’analyse en :
- décloisonnant les structures de données, il n’est plus nécessaire de modéliser des SID avec des agrégats préconstruits souvent destinés à répondre à un tableau de bord précis dans un souci de performance
- donnant accès à la donnée élémentaire, les utilisateurs vont enfin manipuler l’information métier « brute » et étendre ainsi leur champ d’analyse
- offrant un temps de réactivité amélioré pour travailler plus efficacement
Quels sont les impacts des appliances sur l’organisation au sein des entreprises ?
Ces solutions impliquent une nécessaire redistribution des rôles (notamment celui de la DSI au sein de l’entreprise) ainsi qu’un réagencement des méthodes de travail. De façon plus pragmatique, il est important de former les utilisateurs sur la façon de concevoir les analyses métiers mais également de les sensibiliser à la notion de pertinence des données. Le nouvel espace de liberté proposé doit faire l’objet d’une attention de la part des DSI afin de maîtriser les risques de dérapages. Avant, l’utilisateur était contraint par son expression de besoin. Aujourd’hui le in-memory va mettre l’utilisateur face à un arbre des possibles démultiplié et donc potentiellement créer un risque « d’errance » dans le SI.
Il s’agit donc là d’une nouvelle approche de la Business Intelligence qui permet l’émergence d’une BI dite instantanée.
Les solutions les plus représentatives de ce concept se retrouvent chez Teradata, Oracle et IBM. En pratique, l’appliance représente une solution plus performante, plus maintenable et propose une réelle sécurité en terme de stabilité des performances de la solution (scalabilité).
Les appliances prônent donc une nouvelle approche de la Business Intelligence en substituant la composante In-Memory à la phase de stockage physique des données.
SAP HANA propose aux utilisateurs de se concentrer sur l’important c'est-à-dire l’analyse, et non plus sur la construction des composants de cette analyse. Un nouvel espace de liberté s’offre aux utilisateurs dans ses capacités d’analyse en :
- décloisonnant les structures de données, il n’est plus nécessaire de modéliser des SID avec des agrégats préconstruits souvent destinés à répondre à un tableau de bord précis dans un souci de performance
- donnant accès à la donnée élémentaire, les utilisateurs vont enfin manipuler l’information métier « brute » et étendre ainsi leur champ d’analyse
- offrant un temps de réactivité amélioré pour travailler plus efficacement
Quels sont les impacts des appliances sur l’organisation au sein des entreprises ?
Ces solutions impliquent une nécessaire redistribution des rôles (notamment celui de la DSI au sein de l’entreprise) ainsi qu’un réagencement des méthodes de travail. De façon plus pragmatique, il est important de former les utilisateurs sur la façon de concevoir les analyses métiers mais également de les sensibiliser à la notion de pertinence des données. Le nouvel espace de liberté proposé doit faire l’objet d’une attention de la part des DSI afin de maîtriser les risques de dérapages. Avant, l’utilisateur était contraint par son expression de besoin. Aujourd’hui le in-memory va mettre l’utilisateur face à un arbre des possibles démultiplié et donc potentiellement créer un risque « d’errance » dans le SI.
Comment fonctionne HANA ?
Cette plateforme optimisée (hardware et software) a pour objectif affiché de simplifier le paysage informatique et de permettre de rendre réellement disponible le patrimoine des données opérationnelles pour les analyses décisionnelles temps réel : les données opérationnelles sont portées directement au niveau de la plateforme, les performances apportées par le in-memory et la nouvelle génération de processeurs évitent ainsi l’indexation et l’agrégation des données. Dans le monde idéal dépeint par SAP la fusion progressive de l’ERP avec HANA permettra une quasi instantanéité entre opérationnel et décisionnel grâce au connecteur SLT. Mais nous ouvrons là un débat entre « Temps Réel » et « Temps Instantané », dont l’appliance n’est pas le seul élément. Naturellement le monde idéal est toujours une vision « fantasmée » que les entreprises n’atteignent jamais ! Les DSI le constatent au quotidien : le volume de données exogènes augmente régulièrement, HANA devra donc être capable de digérer ces données ! D’autre part, la plateforme devra être capable de s’inscrire d’autres infrastructures que celles en full SAP ce qui n’est pas le cas actuellement, HANA ne répondant qu’à un écosystème principalement SAP. Gageons que l’éditeur allemand saura très vite s’affranchir de ces contraintes et permettra ainsi à HANA de s’ouvrir à d’autres solutions d’alimentation et de reporting.
La mémoire est volatile, quid des aspects de sécurité ?
Tout ce qui était sur disque dur, élément mécanique ayant le moins évolué et restant également le plus lent et le moins fiable est dorénavant mis en mémoire (la RAM) et est donc volatile en cas de coupure de courant ! Naturellement ce point n’a pas échappé à SAP qui propose un système de log sur disque SSD (mémoire flash persistante) et une écriture persistante des données sur disque dur. En cas de panne, HANA reconstruit ainsi la base in-memory à partir des données stockées sur les disques durs et SSD (10 minutes pour 1 To de données).
SAP annonce la disparition des tâches dites chronophages. Qu’en est-il ?
Encore une fois, SAP annonce qu’HANA permettra de se passer des phases préalables à la mise en œuvre d’un entrepôt de données ! Alors est ce qu’HANA signifie vraiment la fin de l’ETL et de la modélisation et l’avènement du « tout tout de suite » et du « tout tout le temps » ? La réponse est oui, mais dans « son » monde idéal…
La réalité est tout autre, le monde ne se limite pas à SAP… même si SAP est et reste un acteur majeur, il n’en reste pas moins que d’autres acteurs existent. Les entreprises doivent tenir compte d’une grande hétérogénéité des sources de données et la réalisation d’un SI décisionnel, fût-il « in-memory » appliance ou non, nécessite toujours un process contrôlé permettant de garantir la cohérence et l’intégrité de l’information rendue disponible.
Les appliances représentent-elles le futur de la Business Intelligence ?
Nous sommes là devant une avancée majeure sur la manière de rendre disponible l’information pour les utilisateurs. Ce nouveau mode de mise à disposition va très certainement modifier structurellement la façon de concevoir et de consommer l’informatique analytique, et peut-être même l’informatique tout simplement. Volumétrie, performance et stabilité du temps de réponse sont les ingrédients du cocktail gagnant pour les utilisateurs, d’autant que la prochaine vague annoncée permettra de répondre aux attentes de temps réel et de temps instantané ! Reste la question du coût d’acquisition de ces solutions…
A n’en pas douter, les appliances seront le cœur de nos SI décisionnels dans les prochaines années.
Cette plateforme optimisée (hardware et software) a pour objectif affiché de simplifier le paysage informatique et de permettre de rendre réellement disponible le patrimoine des données opérationnelles pour les analyses décisionnelles temps réel : les données opérationnelles sont portées directement au niveau de la plateforme, les performances apportées par le in-memory et la nouvelle génération de processeurs évitent ainsi l’indexation et l’agrégation des données. Dans le monde idéal dépeint par SAP la fusion progressive de l’ERP avec HANA permettra une quasi instantanéité entre opérationnel et décisionnel grâce au connecteur SLT. Mais nous ouvrons là un débat entre « Temps Réel » et « Temps Instantané », dont l’appliance n’est pas le seul élément. Naturellement le monde idéal est toujours une vision « fantasmée » que les entreprises n’atteignent jamais ! Les DSI le constatent au quotidien : le volume de données exogènes augmente régulièrement, HANA devra donc être capable de digérer ces données ! D’autre part, la plateforme devra être capable de s’inscrire d’autres infrastructures que celles en full SAP ce qui n’est pas le cas actuellement, HANA ne répondant qu’à un écosystème principalement SAP. Gageons que l’éditeur allemand saura très vite s’affranchir de ces contraintes et permettra ainsi à HANA de s’ouvrir à d’autres solutions d’alimentation et de reporting.
La mémoire est volatile, quid des aspects de sécurité ?
Tout ce qui était sur disque dur, élément mécanique ayant le moins évolué et restant également le plus lent et le moins fiable est dorénavant mis en mémoire (la RAM) et est donc volatile en cas de coupure de courant ! Naturellement ce point n’a pas échappé à SAP qui propose un système de log sur disque SSD (mémoire flash persistante) et une écriture persistante des données sur disque dur. En cas de panne, HANA reconstruit ainsi la base in-memory à partir des données stockées sur les disques durs et SSD (10 minutes pour 1 To de données).
SAP annonce la disparition des tâches dites chronophages. Qu’en est-il ?
Encore une fois, SAP annonce qu’HANA permettra de se passer des phases préalables à la mise en œuvre d’un entrepôt de données ! Alors est ce qu’HANA signifie vraiment la fin de l’ETL et de la modélisation et l’avènement du « tout tout de suite » et du « tout tout le temps » ? La réponse est oui, mais dans « son » monde idéal…
La réalité est tout autre, le monde ne se limite pas à SAP… même si SAP est et reste un acteur majeur, il n’en reste pas moins que d’autres acteurs existent. Les entreprises doivent tenir compte d’une grande hétérogénéité des sources de données et la réalisation d’un SI décisionnel, fût-il « in-memory » appliance ou non, nécessite toujours un process contrôlé permettant de garantir la cohérence et l’intégrité de l’information rendue disponible.
Les appliances représentent-elles le futur de la Business Intelligence ?
Nous sommes là devant une avancée majeure sur la manière de rendre disponible l’information pour les utilisateurs. Ce nouveau mode de mise à disposition va très certainement modifier structurellement la façon de concevoir et de consommer l’informatique analytique, et peut-être même l’informatique tout simplement. Volumétrie, performance et stabilité du temps de réponse sont les ingrédients du cocktail gagnant pour les utilisateurs, d’autant que la prochaine vague annoncée permettra de répondre aux attentes de temps réel et de temps instantané ! Reste la question du coût d’acquisition de ces solutions…
A n’en pas douter, les appliances seront le cœur de nos SI décisionnels dans les prochaines années.