Pierre Formosa, Responsable Avant-Vente, Umanis
Et parmi nos clients, vous êtes un sur deux à déclarer avoir un projet sur ce sujet. Nous vous proposons donc de faire le point sur ce que sont réellement les solutions dites de « RAPID BI », leurs domaines d’application et leur réalité opérationnelle dans les systèmes existants.
Tout d’abord, qu’y a t-il derrière cette notion de Rapid BI ?
Elle repose tout principalement sur le temps nécessaire pour accéder à l’information, devenu bien plus rapide sur la mémoire que sur le disque, et sur l’utilisation de bases de données vectorielles permettant de compresser fortement la volumétrie des données stockées dans les bases de données traditionnelles ainsi que leurs capacité à stocker ces informations « in-memory »*.
Est-ce que les outils dits de nouvelle génération représentent une véritable rupture et peuvent réellement remplacer les outils traditionnels existants ?
La tendance actuelle, notamment sous la pression conjointe des utilisateurs et des éditeurs, est à la fusion des systèmes d’information opérationnels et des systèmes d’information décisionnels. La nécessité se fait de plus en plus grande d’offrir aux métiers une capacité de pilotage en temps réel de leurs activités opérationnelles. Il est vrai que les populations issues de la vente, du marketing ou encore de la finance cherchent à gagner toujours plus en autonomie et rêvent de partir explorer les informations de l’entreprise pour identifier de nouveaux leviers business ou d’économies potentielles. Si ces populations appartiennent en plus à la génération « Y », vous vous retrouvez face à des utilisateurs qui n’ont jamais eu à suivre une formation pour prendre en main un outil et qui sont même réfractaires à ce type d’approche. Ainsi, nous pensons qu’il s’agit davantage de nouveaux outils plus « light », en réponse à de nouveaux besoins, plutôt que de solutions de remplacement des systèmes en place.
Opérer la fusion entre l’opérationnel et le décisionnel peut-il fonctionner ?
Les éditeurs de « Rapid BI » prônent ce rapprochement et proposent au travers du in-memory un pilotage adossé aux données de l’entreprise, qu’il s’agisse des bases opérationnelles ou de DataWarehouse. En-effet, la Rapid-Bi présente de nombreux avantages (temps réel, moins de décalage entre les systèmes de production et mon système décisionnel, diminution du coût et de la complexité de l’infrastructure…), mais l’argument qui semble le plus prometteur aux yeux des utilisateurs est celui de leur indépendance vis-à-vis de la DSI. A contrario, bénéficier d’une grande liberté dans la conception de ses analyses peut aussi engendrer certaines difficultés (difficultés ayant données naissance aux infrastructures et architectures décisionnelles actuelles) qu’il ne faut pas occulter. Il est donc nécessaire de mettre en place les « gardes fous » suffisants pour continuer à garantir un haut niveau de qualité des indicateurs de pilotage que les utilisateurs manipulent, et guider ceux-ci dans ce nouvel espace de liberté apporté avec le « Rapid-BI ». Sans ces « gardes fous », les risques sont grands d’obtenir une vision décisionnelle divergente entre les différentes strates hiérarchiques de l’entreprise.
Cette nouvelle approche du décisionnel semble séduisante et les éditeurs vantent tous les intérêts de ces nouvelles solutions, mais qu’en est-il de l’approche « traditionnelle » que l’écosystème décisionnel porte depuis des années ? Faut-il pour autant tout remettre en cause ? Doit-on faire table rase de tous les développements actuels ? Que faire des investissements passés ? Peut-on laisser une totale autonomie aux utilisateurs dans la manipulation des données et leur interprétation ? Autant de questions qu’il convient de se poser pour percevoir l’intérêt, ou non, de mettre en œuvre une démarche outillée de « Rapid-BI » au sein de l’entreprise.
Aujourd’hui, le décisionnel s’appuie sur une démarche structurée et cohérente, capable d’intégrer des données de sources hétérogènes provenant d’horizons dispersés au sein de l’entreprise mais également à l’extérieur de celle-ci : partenaires, fournisseurs, web, concurrence, organismes réglementaires, clients, etc.… L’approche plus « directe » proposée par les nouvelles solutions « Rapid BI » est-elle adaptée et dimensionnée pour répondre aux enjeux actuels de multiplicité des sources, et prendre en considération les enjeux de demain avec notamment l’intégration dans les SID des informations non-structurées ?
Curieusement, le discours porté par les éditeurs de « Rapid-BI » se retrouve dans le discours énoncé dans les années 1985/1990 par les éditeurs de l’époque, Information Builders, Nomad, Harry… qui proposaient déjà des solutions d’analyse capable d’interroger les bases de données opérationnelles. Aujourd’hui la puissance des serveurs et le coût très faible de la mémoire (contrairement aux années 90) permet de tirer partie de cette technologie « in-memory »… la boucle serait-elle en train d’être bouclée ? Rentrons-nous dans le second cycle de vie du décisionnel ?
Quels sont les acteurs de ce marché ?
Aujourd’hui tous les éditeurs se lancent dans la « Rapid-BI », mais nous pouvons distinguer 2 catégories : les « pure-players de la Rapid-BI » et les acteurs traditionnels qui font évoluer leurs offres vers cette nouvelle catégorie de solutions.
Dans la catégorie Pure-Player, nous retrouvons des acteurs tels que Qlicktech, Tableau Software, et Digdash. Dans la seconde catégorie, nous retrouvons quasiment tous les acteurs avec leur propre technologie et notamment SAP/BI 4.0 avec l’infrastructure HANA. Entre tous ces acteurs, il existe tout de même un point commun, le principe d’architecture repose sur une base de données vectorielle, soit sur un format propriétaire, soit sur un format existant. Avant la mise en œuvre d’une architecture « Rapid-BI » il faut nécessairement se poser la question de l’impact sur les systèmes en place (qui peut s’avérer critique), soit en terme de coût, soit en terme d’organisation. D’autant plus si la cible doit s’appuyer sur une solution « pure-player » et que l’entreprise dispose d’une solution historique de BI.
Umanis a benché trois éditeurs proposant une offre de Rapid-BI : Qlicktech, Tableau Software, et Digdash.
Qlicktech est l’éditeur fer de lance de ce marché. Son positionnement est basé sur la simplicité d’utilisation au travers d’une interface intuitive permettant d’analyser et de découvrir l’information facilement. Le format propriétaire Qlikview s’ouvre aux autres ETL dont (bientôt) Informatica. On peut se demander si l’avantage concurrentiel acquis par Qliktech sera maintenu avec la montée en puissance de Tableau Software ainsi que le développement du in-memory dans les offres traditionnelles.
Tableau Software propose une solution d’analyse de données ergonomique et intuitive avec un affichage très rapide intégrant les concepts de drill-down, de tendances, d’analyse cartographique et de KPIs… L’interface très graphique et orientée poste Utilisateur et Web permet de créer des « dashboards » et des « sheets » très simplement par « drag-and-drop ».
Cette solution est idéale pour la définition de reportings en mode prototype ou pour une population de « power users » (sur bases traditionnelles et décisionnelles), et peut-être mise à disposition de manière directe à des utilisateurs finaux (directions financières et commerciales).
Cependant, il est encore très difficile d’avoir du recul sur cette solution (au niveau projet) car celle-ci vient juste de s’implanter en France.
Digdash est un nouvel entrant français qui propose une solution supportant nativement de nombreuses sources (Oracle, SQL Server, …) de plus une particularité intéressante de la solution est de pouvoir utiliser des univers BO ou des catalogues Cognos comme source de données et donc de se présenter comme no intrusifs dans ce type d’architecture. Digdash se présente comme un fédérateur BI pouvant parfaitement venir en complément de solution existante et pouvant être exploité sur mobile.
Nous attendons également la sortie prochaine de SAP BO 4.0, Hana (en réponse aux projets de grande envergure). Cette solution logicielle permettra d’effectuer en temps réel des analyses haute performance sur des données de Production.
Nous avons consacré le 7 juin dernier un 5à7 sur le sujet de la Rapid BI, si vous désirez plus d’informations n’hésitez pas à nous contacter service-clients@umanis.com.
*Le principe du « in-memory » est assez simple, il s’appuie sur le principe suivant : « le nombre de valeurs distinctes d’une base de données est inférieure au nombre de lignes de cette base » ! Par ailleurs le mode de stockage permet une compression importante des données ce qui permettra de manipuler un très grand volume d’informations sans dégradation sensible des temps de réponse pour les utilisateurs.
Tout d’abord, qu’y a t-il derrière cette notion de Rapid BI ?
Elle repose tout principalement sur le temps nécessaire pour accéder à l’information, devenu bien plus rapide sur la mémoire que sur le disque, et sur l’utilisation de bases de données vectorielles permettant de compresser fortement la volumétrie des données stockées dans les bases de données traditionnelles ainsi que leurs capacité à stocker ces informations « in-memory »*.
Est-ce que les outils dits de nouvelle génération représentent une véritable rupture et peuvent réellement remplacer les outils traditionnels existants ?
La tendance actuelle, notamment sous la pression conjointe des utilisateurs et des éditeurs, est à la fusion des systèmes d’information opérationnels et des systèmes d’information décisionnels. La nécessité se fait de plus en plus grande d’offrir aux métiers une capacité de pilotage en temps réel de leurs activités opérationnelles. Il est vrai que les populations issues de la vente, du marketing ou encore de la finance cherchent à gagner toujours plus en autonomie et rêvent de partir explorer les informations de l’entreprise pour identifier de nouveaux leviers business ou d’économies potentielles. Si ces populations appartiennent en plus à la génération « Y », vous vous retrouvez face à des utilisateurs qui n’ont jamais eu à suivre une formation pour prendre en main un outil et qui sont même réfractaires à ce type d’approche. Ainsi, nous pensons qu’il s’agit davantage de nouveaux outils plus « light », en réponse à de nouveaux besoins, plutôt que de solutions de remplacement des systèmes en place.
Opérer la fusion entre l’opérationnel et le décisionnel peut-il fonctionner ?
Les éditeurs de « Rapid BI » prônent ce rapprochement et proposent au travers du in-memory un pilotage adossé aux données de l’entreprise, qu’il s’agisse des bases opérationnelles ou de DataWarehouse. En-effet, la Rapid-Bi présente de nombreux avantages (temps réel, moins de décalage entre les systèmes de production et mon système décisionnel, diminution du coût et de la complexité de l’infrastructure…), mais l’argument qui semble le plus prometteur aux yeux des utilisateurs est celui de leur indépendance vis-à-vis de la DSI. A contrario, bénéficier d’une grande liberté dans la conception de ses analyses peut aussi engendrer certaines difficultés (difficultés ayant données naissance aux infrastructures et architectures décisionnelles actuelles) qu’il ne faut pas occulter. Il est donc nécessaire de mettre en place les « gardes fous » suffisants pour continuer à garantir un haut niveau de qualité des indicateurs de pilotage que les utilisateurs manipulent, et guider ceux-ci dans ce nouvel espace de liberté apporté avec le « Rapid-BI ». Sans ces « gardes fous », les risques sont grands d’obtenir une vision décisionnelle divergente entre les différentes strates hiérarchiques de l’entreprise.
Cette nouvelle approche du décisionnel semble séduisante et les éditeurs vantent tous les intérêts de ces nouvelles solutions, mais qu’en est-il de l’approche « traditionnelle » que l’écosystème décisionnel porte depuis des années ? Faut-il pour autant tout remettre en cause ? Doit-on faire table rase de tous les développements actuels ? Que faire des investissements passés ? Peut-on laisser une totale autonomie aux utilisateurs dans la manipulation des données et leur interprétation ? Autant de questions qu’il convient de se poser pour percevoir l’intérêt, ou non, de mettre en œuvre une démarche outillée de « Rapid-BI » au sein de l’entreprise.
Aujourd’hui, le décisionnel s’appuie sur une démarche structurée et cohérente, capable d’intégrer des données de sources hétérogènes provenant d’horizons dispersés au sein de l’entreprise mais également à l’extérieur de celle-ci : partenaires, fournisseurs, web, concurrence, organismes réglementaires, clients, etc.… L’approche plus « directe » proposée par les nouvelles solutions « Rapid BI » est-elle adaptée et dimensionnée pour répondre aux enjeux actuels de multiplicité des sources, et prendre en considération les enjeux de demain avec notamment l’intégration dans les SID des informations non-structurées ?
Curieusement, le discours porté par les éditeurs de « Rapid-BI » se retrouve dans le discours énoncé dans les années 1985/1990 par les éditeurs de l’époque, Information Builders, Nomad, Harry… qui proposaient déjà des solutions d’analyse capable d’interroger les bases de données opérationnelles. Aujourd’hui la puissance des serveurs et le coût très faible de la mémoire (contrairement aux années 90) permet de tirer partie de cette technologie « in-memory »… la boucle serait-elle en train d’être bouclée ? Rentrons-nous dans le second cycle de vie du décisionnel ?
Quels sont les acteurs de ce marché ?
Aujourd’hui tous les éditeurs se lancent dans la « Rapid-BI », mais nous pouvons distinguer 2 catégories : les « pure-players de la Rapid-BI » et les acteurs traditionnels qui font évoluer leurs offres vers cette nouvelle catégorie de solutions.
Dans la catégorie Pure-Player, nous retrouvons des acteurs tels que Qlicktech, Tableau Software, et Digdash. Dans la seconde catégorie, nous retrouvons quasiment tous les acteurs avec leur propre technologie et notamment SAP/BI 4.0 avec l’infrastructure HANA. Entre tous ces acteurs, il existe tout de même un point commun, le principe d’architecture repose sur une base de données vectorielle, soit sur un format propriétaire, soit sur un format existant. Avant la mise en œuvre d’une architecture « Rapid-BI » il faut nécessairement se poser la question de l’impact sur les systèmes en place (qui peut s’avérer critique), soit en terme de coût, soit en terme d’organisation. D’autant plus si la cible doit s’appuyer sur une solution « pure-player » et que l’entreprise dispose d’une solution historique de BI.
Umanis a benché trois éditeurs proposant une offre de Rapid-BI : Qlicktech, Tableau Software, et Digdash.
Qlicktech est l’éditeur fer de lance de ce marché. Son positionnement est basé sur la simplicité d’utilisation au travers d’une interface intuitive permettant d’analyser et de découvrir l’information facilement. Le format propriétaire Qlikview s’ouvre aux autres ETL dont (bientôt) Informatica. On peut se demander si l’avantage concurrentiel acquis par Qliktech sera maintenu avec la montée en puissance de Tableau Software ainsi que le développement du in-memory dans les offres traditionnelles.
Tableau Software propose une solution d’analyse de données ergonomique et intuitive avec un affichage très rapide intégrant les concepts de drill-down, de tendances, d’analyse cartographique et de KPIs… L’interface très graphique et orientée poste Utilisateur et Web permet de créer des « dashboards » et des « sheets » très simplement par « drag-and-drop ».
Cette solution est idéale pour la définition de reportings en mode prototype ou pour une population de « power users » (sur bases traditionnelles et décisionnelles), et peut-être mise à disposition de manière directe à des utilisateurs finaux (directions financières et commerciales).
Cependant, il est encore très difficile d’avoir du recul sur cette solution (au niveau projet) car celle-ci vient juste de s’implanter en France.
Digdash est un nouvel entrant français qui propose une solution supportant nativement de nombreuses sources (Oracle, SQL Server, …) de plus une particularité intéressante de la solution est de pouvoir utiliser des univers BO ou des catalogues Cognos comme source de données et donc de se présenter comme no intrusifs dans ce type d’architecture. Digdash se présente comme un fédérateur BI pouvant parfaitement venir en complément de solution existante et pouvant être exploité sur mobile.
Nous attendons également la sortie prochaine de SAP BO 4.0, Hana (en réponse aux projets de grande envergure). Cette solution logicielle permettra d’effectuer en temps réel des analyses haute performance sur des données de Production.
Nous avons consacré le 7 juin dernier un 5à7 sur le sujet de la Rapid BI, si vous désirez plus d’informations n’hésitez pas à nous contacter service-clients@umanis.com.
*Le principe du « in-memory » est assez simple, il s’appuie sur le principe suivant : « le nombre de valeurs distinctes d’une base de données est inférieure au nombre de lignes de cette base » ! Par ailleurs le mode de stockage permet une compression importante des données ce qui permettra de manipuler un très grand volume d’informations sans dégradation sensible des temps de réponse pour les utilisateurs.
Autres articles
-
Offre publique d’achat simplifiée : CGI détient désormais 91,54 % du capital d’Umanis
-
Umanis accompagne ses clients dans le déploiement de « l’Artificial Intelligence Act »
-
Quelles technologies pour une stratégie Big Data réussie en 2020 ?
-
Umanis nomme Pascal Janin Directeur du Développement Europe
-
Umanis lance « Cœur Umanis », son programme de mécénat de compétences