Sylvain PAVLOWSKI, Tibco
Etape 1 : Le contrôle sans compromis
Les outils de Business Intelligence ont amené les entreprises à n’envisager que la composante ‘business’ et ont laissé pour compte la partie ‘Intelligence’ de leur promesse.
La mise en œuvre des infrastructures BI 1.0 s’est en effet accompagnée de création de Datawarehouse centralisés afin d’organiser et d’agréger les informations collectées depuis les différentes applications métiers. La disparité même de leur nature et la complexité de l’infrastructure sous-jacente, ont imposé la création d’une couche applicative sémantique. Celle-ci ayant pour objet de dissocier la structure complexe des DW afin de rendre les données disponibles dans un format simplifié auprès de certains utilisateurs. On comprendra que cet exercice couteux a demandé de gros investissements et est un domaine réservé aux seuls services informatiques.
La création des DW au sein des entreprises et le stockage de ces informations dans des bases de données relationnelles n’a pu s’envisager qu’en agrégeant ces données à des fins de reporting prédéfini. Cette mise en forme de l’information implique une structuration des schémas des bases de données relationnelles afin de définir les relations dimensionnelles des informations entre-elles.
Cette vision stratégique du ‘tout centralisé’ a été réalisée grâce à une convergence applicative (mise en place d’ERP) ou au déploiement d’architectures SOA (couche logicielle de dialogue inter-applicatif). Le résultat étant identique, toutes les données devant être consolidées dans un unique DW d’entreprise. Les informations relatives à un client par exemple, seront collectées depuis plusieurs applications pour alimenter le DW via des interfaces programmables (ETL), les outils de BI allant extraire les données via des requêtes SQL pour les mettre en forme dans des rapports statiques.
Les rapports sont alors transmis aux utilisateurs en mode ‘Push’ car il est impossible avec ce type d’infrastructure de donner aux utilisateurs la liberté de lancer des centaines voir des milliers de requêtes simultanées.
Du tout centralisé est née la rébellion des utilisateurs
Ce qui semblait à priori une bonne idée, s’est transformé en un cauchemar pour les utilisateurs, rendu dépendant du service informatique pour tout nouveau rapport et leur interdisant toute requête ad-hoc. Seuls quelques ‘super utilisateurs’ peuvent aller collecter des données, en utilisant les dimensions prévues à priori. Il n’existe dans ce schéma aucune liberté pour l’utilisateur de faire de l’analyse prédictive, les données ne permettant de faire que de l’analyse à posteriori.
Il résulte donc de la mise en œuvre des outils de BI 1.0 une perte de la connaissance. Les utilisateurs ne travaillant que sur des données agrégées disponibles qu’en mode push via une intégration au niveau de l’entreprise d’une application de reporting globalisé et centralisé. On comprendra que les utilisateurs, en réaction à cette situation, se sont dotés d’outils leur permettant de travailler plus efficacement d’une manière autonome.
Etape 2 : De la décentralisation au Chaos Décisionnel :
Alors que les services informatiques construisaient les infrastructures centralisées, rendant leurs clients dépendant de leur réactivité, les utilisateurs avides de liberté ont trouvé le moyen de s’émanciper.
Poussés par l’évolution même des cycles industriels, time to market réduits, globalisation des offres, pressions réglementaires ou encore réduction des strates managériales, les utilisateurs ont un déficit chronique d’outils d’aide à la décision.
En réaction naturelle au manque de souplesse des outils de BI 1.0 et de l’infrastructure indispensable pour les supporter, les utilisateurs ont eu recours aux outils clients. Dans nombres d’institutions, sérieuses au demeurant, les managers consolident leurs données opérationnelles et prennent au quotidien leurs décisions en s’appuyant sur outils clients de type ‘tableur’.
Le problème est sérieux car il implique que les processus décisionnels sont basé sur l’échange de feuilles de calcul dont les données sont entrées manuellement pour partie, mais surtout que les différents utilisateurs utilisent des données différentes les uns par rapport aux autres, et ne provenant pas du DW central. De plus cela introduit une vision en ‘silo’ de l’entreprise, chaque direction prenant ses propres décisions sans impliquer ou valider ses choix avec les autres composantes du business.
Certes ces outils ont amené une démocratisation extraordinaire de l’usage du décisionnel, mais dans un contexte de perte de contrôle total de l’information par les services informatiques tant au niveau de la qualité des données que des processus décisionnels eux-mêmes.
C’est ce que nous appelons le chaos décisionnel.
La troisième voie :
L’avènement des solutions ‘analytiques d’entreprises’ permet de réconcilier l’ensemble des acteurs du cycle décisionnel.
⇨ Rendre au service informatique le contrôle des données au niveau central est indispensable pour promouvoir et assurer la qualité des processus décisionnels et assurer la cohérence des données.
Grâce à la technologie Spotfire, les utilisateurs peuvent extraire les données à l’aide d’une interface ergonomique accessible à tous. La création d’agrégats calculés à la volée permet de supprimer la couche sémantique d’abstraction des données au profit de vues métiers.
Celles-ci permettent d’extraire toute donnée du DW en s’affranchissant de la notion de dimension a priori, valorisant l’analyse ‘free dimentional’
⇨ Grâce à la souplesse de la solution, les utilisateurs quel que soit leur niveau de sophistication peuvent créer les analyses indispensables à la conduite de leur activité sans intervention du service informatique, tout en utilisant les données centrales. Ce processus garantit la qualité et la fiabilité du résultat. De la même manière les utilisateurs peuvent inclure dans leurs analyses des données externes (géophysiques, études externes, satellites, provenant d’opérations en cours non encore inclus dans le DW) et ainsi préserver la rapidité d’exécution de leurs analyses.
⇨ Lors de l’importation des données dans l’outil Spotfire, l’ensemble des colonnes des tables sont converties en filtres (l’équivalent des dimensions dans les outils BI classiques). Ainsi donc, il existera autant de dimensions que de colonnes. Par exemple, la colonne ‘quantité commandée’ sera proposée comme un filtre et les variables associées dans les lignes seront automatiquement transformées en limites inférieures et supérieures. Sans intervention d’un spécialiste.
⇨ Au-delà de l’application de reporting statique, les utilisateurs peuvent aller chercher les données dont ils ont besoin, à tout moment, et importer celles-ci dans leur poste client (In-Memory). Cette technologie de base de données vectorielle permet de proposer une solution de ‘Pull’ aux utilisateurs dans le processus de prise de décision. Celui-ci s’affranchit des notions de dimensions prédéfinies. En pouvant inclure toute autre source de données à la volée, l’utilisateur passe du reporting à l’analyse prédictive
⇨ La suite Spotfire possédant une série d’API, il est aujourd’hui possible d’intégrer dans les analyses des données de sources multiples, mais aussi provenant du Web. Sur une même page, on peut donc faire cohabiter un graphique, résultat d’une analyse, et intégrer des applications Web 2.0. Grâce à la technologie des Mash-Ups, il est possible de rendre interdépendant une page Web et un graphique et d’interagir entre ces deux composantes.
Etape 3 : Reprendre le contrôle des données, tout en donnant aux utilisateurs métiers la liberté de manipuler les informations :
Alors que les entreprises sont amenées à réduire leurs cycles décisionnels, il est indispensable de repenser les infrastructures, afin de donner aux utilisateurs l’agilité et les outils permettant une meilleure d’adaptabilité et une plus grande rapidité d’analyse.
Les outils de B.I 1.0 ont permis de mettre en production des applications de reporting institutionnel et de consolidation des données, mais leur manque de souplesse n’a pas permis de les démocratiser vers tous les utilisateurs
Les services informatiques ont de nombreuses missions et mettre en place un service dédié à la création ou à la modification de rapports ne constitue pas une mission stratégique. De plus la connaissance des utilisateurs de leurs données ainsi qu’en matière informatique, est suffisante aujourd’hui pour leur donner le moyen d’être autonomes.
La rapide évolution des plateformes hardware concours aussi à pouvoir délocaliser les traitements qui historiquement ont été fait depuis les serveurs centraux vers les postes de travail. L’utilisation de base de données ‘in-memory’ permet de donner aux utilisateurs la souplesse de gestion des données localement, sans influer sur les temps de réponse du DW d’entreprise
Les nouveaux outils d’analyse prédictive et d’exploration de données comme Spotfire sont la seule alternative aujourd’hui permettant aux services informatiques de reprendre le contrôle des données au niveau global tout en proposant aux utilisateurs la souplesse d’utilisation qu’ils réclament.
Faire cohabiter les deux mondes, application de reporting classique et outils d’analyses prédictives et d’exploration de données intelligente, est sans conteste la meilleure solution aujourd’hui.
Les outils de Business Intelligence ont amené les entreprises à n’envisager que la composante ‘business’ et ont laissé pour compte la partie ‘Intelligence’ de leur promesse.
La mise en œuvre des infrastructures BI 1.0 s’est en effet accompagnée de création de Datawarehouse centralisés afin d’organiser et d’agréger les informations collectées depuis les différentes applications métiers. La disparité même de leur nature et la complexité de l’infrastructure sous-jacente, ont imposé la création d’une couche applicative sémantique. Celle-ci ayant pour objet de dissocier la structure complexe des DW afin de rendre les données disponibles dans un format simplifié auprès de certains utilisateurs. On comprendra que cet exercice couteux a demandé de gros investissements et est un domaine réservé aux seuls services informatiques.
La création des DW au sein des entreprises et le stockage de ces informations dans des bases de données relationnelles n’a pu s’envisager qu’en agrégeant ces données à des fins de reporting prédéfini. Cette mise en forme de l’information implique une structuration des schémas des bases de données relationnelles afin de définir les relations dimensionnelles des informations entre-elles.
Cette vision stratégique du ‘tout centralisé’ a été réalisée grâce à une convergence applicative (mise en place d’ERP) ou au déploiement d’architectures SOA (couche logicielle de dialogue inter-applicatif). Le résultat étant identique, toutes les données devant être consolidées dans un unique DW d’entreprise. Les informations relatives à un client par exemple, seront collectées depuis plusieurs applications pour alimenter le DW via des interfaces programmables (ETL), les outils de BI allant extraire les données via des requêtes SQL pour les mettre en forme dans des rapports statiques.
Les rapports sont alors transmis aux utilisateurs en mode ‘Push’ car il est impossible avec ce type d’infrastructure de donner aux utilisateurs la liberté de lancer des centaines voir des milliers de requêtes simultanées.
Du tout centralisé est née la rébellion des utilisateurs
Ce qui semblait à priori une bonne idée, s’est transformé en un cauchemar pour les utilisateurs, rendu dépendant du service informatique pour tout nouveau rapport et leur interdisant toute requête ad-hoc. Seuls quelques ‘super utilisateurs’ peuvent aller collecter des données, en utilisant les dimensions prévues à priori. Il n’existe dans ce schéma aucune liberté pour l’utilisateur de faire de l’analyse prédictive, les données ne permettant de faire que de l’analyse à posteriori.
Il résulte donc de la mise en œuvre des outils de BI 1.0 une perte de la connaissance. Les utilisateurs ne travaillant que sur des données agrégées disponibles qu’en mode push via une intégration au niveau de l’entreprise d’une application de reporting globalisé et centralisé. On comprendra que les utilisateurs, en réaction à cette situation, se sont dotés d’outils leur permettant de travailler plus efficacement d’une manière autonome.
Etape 2 : De la décentralisation au Chaos Décisionnel :
Alors que les services informatiques construisaient les infrastructures centralisées, rendant leurs clients dépendant de leur réactivité, les utilisateurs avides de liberté ont trouvé le moyen de s’émanciper.
Poussés par l’évolution même des cycles industriels, time to market réduits, globalisation des offres, pressions réglementaires ou encore réduction des strates managériales, les utilisateurs ont un déficit chronique d’outils d’aide à la décision.
En réaction naturelle au manque de souplesse des outils de BI 1.0 et de l’infrastructure indispensable pour les supporter, les utilisateurs ont eu recours aux outils clients. Dans nombres d’institutions, sérieuses au demeurant, les managers consolident leurs données opérationnelles et prennent au quotidien leurs décisions en s’appuyant sur outils clients de type ‘tableur’.
Le problème est sérieux car il implique que les processus décisionnels sont basé sur l’échange de feuilles de calcul dont les données sont entrées manuellement pour partie, mais surtout que les différents utilisateurs utilisent des données différentes les uns par rapport aux autres, et ne provenant pas du DW central. De plus cela introduit une vision en ‘silo’ de l’entreprise, chaque direction prenant ses propres décisions sans impliquer ou valider ses choix avec les autres composantes du business.
Certes ces outils ont amené une démocratisation extraordinaire de l’usage du décisionnel, mais dans un contexte de perte de contrôle total de l’information par les services informatiques tant au niveau de la qualité des données que des processus décisionnels eux-mêmes.
C’est ce que nous appelons le chaos décisionnel.
La troisième voie :
L’avènement des solutions ‘analytiques d’entreprises’ permet de réconcilier l’ensemble des acteurs du cycle décisionnel.
⇨ Rendre au service informatique le contrôle des données au niveau central est indispensable pour promouvoir et assurer la qualité des processus décisionnels et assurer la cohérence des données.
Grâce à la technologie Spotfire, les utilisateurs peuvent extraire les données à l’aide d’une interface ergonomique accessible à tous. La création d’agrégats calculés à la volée permet de supprimer la couche sémantique d’abstraction des données au profit de vues métiers.
Celles-ci permettent d’extraire toute donnée du DW en s’affranchissant de la notion de dimension a priori, valorisant l’analyse ‘free dimentional’
⇨ Grâce à la souplesse de la solution, les utilisateurs quel que soit leur niveau de sophistication peuvent créer les analyses indispensables à la conduite de leur activité sans intervention du service informatique, tout en utilisant les données centrales. Ce processus garantit la qualité et la fiabilité du résultat. De la même manière les utilisateurs peuvent inclure dans leurs analyses des données externes (géophysiques, études externes, satellites, provenant d’opérations en cours non encore inclus dans le DW) et ainsi préserver la rapidité d’exécution de leurs analyses.
⇨ Lors de l’importation des données dans l’outil Spotfire, l’ensemble des colonnes des tables sont converties en filtres (l’équivalent des dimensions dans les outils BI classiques). Ainsi donc, il existera autant de dimensions que de colonnes. Par exemple, la colonne ‘quantité commandée’ sera proposée comme un filtre et les variables associées dans les lignes seront automatiquement transformées en limites inférieures et supérieures. Sans intervention d’un spécialiste.
⇨ Au-delà de l’application de reporting statique, les utilisateurs peuvent aller chercher les données dont ils ont besoin, à tout moment, et importer celles-ci dans leur poste client (In-Memory). Cette technologie de base de données vectorielle permet de proposer une solution de ‘Pull’ aux utilisateurs dans le processus de prise de décision. Celui-ci s’affranchit des notions de dimensions prédéfinies. En pouvant inclure toute autre source de données à la volée, l’utilisateur passe du reporting à l’analyse prédictive
⇨ La suite Spotfire possédant une série d’API, il est aujourd’hui possible d’intégrer dans les analyses des données de sources multiples, mais aussi provenant du Web. Sur une même page, on peut donc faire cohabiter un graphique, résultat d’une analyse, et intégrer des applications Web 2.0. Grâce à la technologie des Mash-Ups, il est possible de rendre interdépendant une page Web et un graphique et d’interagir entre ces deux composantes.
Etape 3 : Reprendre le contrôle des données, tout en donnant aux utilisateurs métiers la liberté de manipuler les informations :
Alors que les entreprises sont amenées à réduire leurs cycles décisionnels, il est indispensable de repenser les infrastructures, afin de donner aux utilisateurs l’agilité et les outils permettant une meilleure d’adaptabilité et une plus grande rapidité d’analyse.
Les outils de B.I 1.0 ont permis de mettre en production des applications de reporting institutionnel et de consolidation des données, mais leur manque de souplesse n’a pas permis de les démocratiser vers tous les utilisateurs
Les services informatiques ont de nombreuses missions et mettre en place un service dédié à la création ou à la modification de rapports ne constitue pas une mission stratégique. De plus la connaissance des utilisateurs de leurs données ainsi qu’en matière informatique, est suffisante aujourd’hui pour leur donner le moyen d’être autonomes.
La rapide évolution des plateformes hardware concours aussi à pouvoir délocaliser les traitements qui historiquement ont été fait depuis les serveurs centraux vers les postes de travail. L’utilisation de base de données ‘in-memory’ permet de donner aux utilisateurs la souplesse de gestion des données localement, sans influer sur les temps de réponse du DW d’entreprise
Les nouveaux outils d’analyse prédictive et d’exploration de données comme Spotfire sont la seule alternative aujourd’hui permettant aux services informatiques de reprendre le contrôle des données au niveau global tout en proposant aux utilisateurs la souplesse d’utilisation qu’ils réclament.
Faire cohabiter les deux mondes, application de reporting classique et outils d’analyses prédictives et d’exploration de données intelligente, est sans conteste la meilleure solution aujourd’hui.
Autres articles
-
Quand allons-nous enfin reconnaître le rôle des données dans la performance des entreprises ?
-
Optimisation des données et stratégie d’entreprise : l'intelligence est un privilège
-
Intégration des Données : TIBCO améliore ses offres en apportant de l’intelligence à ses processus d’unification
-
TIBCO présente de nouvelles fonctions d'analyse ultra immersives pour étendre la science des données à l'ensemble de l'entreprise
-
Avec TIBCO ModelOps, les entreprises augmentent considérablement leur efficience et leur flexibilité grâce à la puissance de l’intelligence artificielle