Jean-Michel FRANCO, Innovation and Business Solutions Director Business & Decision
Si le cloud s’immisce peu à peu dans la BI par sa périphérie, pour des applications de niche ou des domaines mal couverts par la BI traditionnelle, parviendra-t-il pour autant à en ébranler ses fondations avec la même amplitude que dans le CRM ? Répondre à cette question de manière définitive est impossible à ce stade. Néanmoins, trois axes de ruptures se dessinent de plus en plus nettement. Le premier est dans la dimension innovation des technologies de bases de données, notamment au niveau de la propriété dite d’élasticité permettant de s’adapter aux fortes fluctuations de la demande qui caractérisent certaines applications analytiques. La seconde concerne la dimension économique. La troisième est dans la dimension fonctionnelle, maintenant que le décisionnel ne peut plus se limiter à s’intéresser aux données pré-structurées et internes à l’entreprise, pas plus qu’il ne peut se permettre de ne s’adresser qu’aux seuls employés à l’intérieur de l’entreprise.
Premier axe de rupture : l’innovation technologique
L’innovation est de retour du côté des bases de données, et à son origine, il y a le monde du web. Les grands sites web ont en effet été confrontés aux problématiques du Big Data bien avant les applications de gestion : la nécessité de gérer les données comme elles viennent, parfois au fil de l’eau sans même avoir le temps de les stocker ou de leur associer une structure ou des contrôles ; la diversité des traitements à appliquer aux données selon leur nature ; l’imprévisibilité de la demande imposant une élasticité totale des mécanismes d’affectation des ressources IT disponibles aux besoins applicatifs, etc.
Ce principe « à la demande » tel que le propose le cloud amène de nouveaux cas d’usages pour la Business Intelligence. La société américaine Netflix, une web tv multi-plateforme et à la demande, a par exemple stocké des informations de plus en plus détaillées, issues des terminaux de ses clients (décodeurs, télévision, mobile), avant même d’avoir déterminé précisément pour quels usages ces données allaient être utilisées. Cette approche lui a permis de traiter progressivement des volumes croissants de données, de quelques tera-octets devenus plusieurs pétaoctets de données « utiles », sans avoir à anticiper cette montée en charge. Autre exemple, celui d’un grand distributeur qui tire partie de cette propriété d’élasticité pour décharger les données de systèmes centraux centralisées ou très grandes bases de données décisionnelles, les répartir sur une multitude de serveurs réquisitionnés pour quelques heures seulement puis réaffectés ensuite à d’autres tâches. Ceci lui permet par exemple de réajuster plus fréquemment ses prix de vente à la demande du marché, et à l’ajuster au contexte de chaque zone de chalandise, magasins…
Alors que le monde de la BI a appris à travailler avec des ressources coûteuses, donc relativement limitées et dont l’allocation doit se faire en amont, le monde de l’Internet a pris une approche radicalement différente. Il s’est efforcé de banaliser à l’extrême les ressources matérielles sous jacentes et de les rendre disponibles en self-service. Puis, il a réinventé les applications pour les exploiter de manière dynamique, en les rendant capables de paralléliser les traitements à l’extrême et d’allouer ou de désallouer les ressources de manière totalement dynamique et automatique.
Utiliser cette approche dans la BI n’est pas chose simple, car c’est un peu contre nature par rapport à toutes les bonnes pratiques apprises pendant toutes ces années. Mais le Big Data incite à cette rupture : le data warehouse doit évoluer progressivement d’une architecture centralisée et homogène vers une architecture distribuée et protéiforme. Parce qu’il est particulièrement adapté à ces nouvelles architectures, le cloud a une place à prendre, au moins pour compléter l’architecture data warehouse existante sur certains types de données ou pour certains traitements.
Il est un autre domaine que les environnements BI traditionnels peinent à adresser, à tel point que c’est devenu un sujet sensible : la capacité à intégrer de nouvelles sources de données au fil de l’eau. S’ils ont progressé dans leur capacité à permettre aux utilisateurs d’explorer les données sur des chemins non prédéfinis, ils sont en général incapables d’intégrer de nouvelles sources de données en dehors des phases amont du projet. Parfois même, l’intégration de nouvelles données impose une refonte de leur architecture. Pourtant, le constat est que notre économie crée de nouvelles données à un rythme de plus en plus rapide. A la manière des e-commerçants qui sont parvenus à élargir considérablement leur catalogue - et leur chiffre d’affaires - en mettant en place des places de marché externes, les systèmes de BI ne devront elle pas mettre en place leur place de marché de données pour intégrer rapidement de nouvelles sources de données sans pour autant passer par l’entrepôt traditionnel ? Si la réponse est positive, le cloud y jouera de toute évidence une place prépondérante.
Second axe de rupture : les coûts
Pour attaquer le marché de la BI en son cœur, il faut s’attaquer à la base de données. Or, parmi tous les composants d’un système d’information, la base de données est sans aucun doute le plus difficile à déloger. Les bases de données relationnelles généralistes sont certes parvenues à créer la rupture dans les années 1990, mais depuis, elles n’ont laissé que des miettes à leurs alternatives. Certaines, comme Teradata, sont incontournables sur le très haut de gamme, mais ne représentent au final que quelques points de part de marché. Il en est de même pour les bases décisionnelles dédiées comme Sybase IQ, ou les bases OLAP comme Oracle Essbase. Un nouveau et puissant vent d’innovation souffle sur le marché des bases de données. Mais sera-t-il suffisant pour créer la rupture au cœur des systèmes d’information existants ?
Cette rupture est envisageable, à condition de changer radicalement l’équation économique ! En effet, les coûts liés aux bases de données décisionnelles restent élevés, et souvent dissuasifs dès qu’il s’agit de traiter la « longue traine » des données de l’entreprise, issues de la fédération de toutes les données potentiellement à disposition, voire générée au travers de capteurs.
En annonçant Redshift, Amazon fait beaucoup de bruit dans le landerneau de la Business Intelligence. Pourtant, son offre, fondée sur la base de données ParAccel comme plusieurs autres offres Cloud sur le marché, n’est pas révolutionnaire. Affiché à un prix de 1 000 $ par tera-octet, soit - selon Amazon – le dixième du coût des solutions concurrentes, RedShift intrigue avec son positionnement low cost. Certes, l’offre nécessite de faire face à de nouveaux problèmes encore mal maitrisés : la sécurité bien sûr, mais aussi les transferts de données et le modèle de facturation dont la souplesse n’a pas que des avantages et qu’il faut décortiquer à l’extrême pour pouvoir le comparer aux alternatives (par exemple le coût de transfert de données peut s’avérer plus élevé que le coût de stockage)....
Il n’empêche que Redshift appuie sur un point sensible du décisionnel d’aujourd’hui et du Big Data de demain. Les premiers retours d’expérience, comme celui AirBnb, confirment que cette offre ouvre de nouvelles perspectives de progrès pour le décisionnel sur les axes coût et performance. En agissant ainsi, Amazon n’ouvre-t-il pas une brèche dans lequel d’autres vont s’engouffrer, tant du côté des entreprises utilisatrices que du côté des fournisseurs du marché ? Déjà, certains acteurs comme Pentaho ou Informatica s’y sont engouffrés, non seulement en annonçant des déclinaisons de leurs offres respectives dédiées à Redshift, mais aussi en en modifiant le modèle économique pour s’aligner au modèle de tarification du cloud.
Redshift n’est évoqué ici qu’à titre d’exemple. Ce qu’il faut en retenir, c’est que le cloud est susceptible de démocratiser des solutions haut de gamme, jusqu’ici réservées aux très grands groupes, en les mettant à disposition de populations qui n’y avaient pas accès jusque-là. Il s’agit là sans doute de petites et moyennes entreprises, mais également de directions fonctionnelles, comme les directions marketing, notamment, qui pour quelques euros de l’heure, peuvent avoir accès de manière très souple à des capacités de traitement considérables. Reste bien sûr à les maitriser et à savoir les exploiter dans la durée.
Troisième axe de rupture : l’information partagée au sens large, au-delà de l’entreprise
Selon le Gartner, d’ici 2016, 30% des entreprises commercialiseront leur capital informationnel. Même si l’information partagée ne s’associe pas forcément à une transaction financière, nous observons déjà cette tendance en tant que consommateurs : tel fournisseur d’équipement sportif intègre des puces électroniques à ses équipements pour devenir votre coach sportif numérique, tel fournisseur d’électricité ou de gaz vous propose de mieux consommer par l’analyse de votre facture, telle collectivité met à disposition les données sur les services publics qu’elle propose, etc.
Pour une entreprise, partager l’information avec des tiers remet en cause les architectures existantes : il faut passer de l’autre côté du firewall de l’entreprise ; il faut cibler une population plus large et fluctuante ; il faut pouvoir proposer un modèle de facturation à l’usage et adapter le modèle de coûts en conséquence.
Voilà autant de caractéristiques qui orientent naturellement vers le cloud. C’est du reste ce cas d’usage qui semble tirer la demande à court terme, de manière plus forte que les deux autres axes de rupture évoqués, puisque tirés par la demande plus que par l’offre.
Premier axe de rupture : l’innovation technologique
L’innovation est de retour du côté des bases de données, et à son origine, il y a le monde du web. Les grands sites web ont en effet été confrontés aux problématiques du Big Data bien avant les applications de gestion : la nécessité de gérer les données comme elles viennent, parfois au fil de l’eau sans même avoir le temps de les stocker ou de leur associer une structure ou des contrôles ; la diversité des traitements à appliquer aux données selon leur nature ; l’imprévisibilité de la demande imposant une élasticité totale des mécanismes d’affectation des ressources IT disponibles aux besoins applicatifs, etc.
Ce principe « à la demande » tel que le propose le cloud amène de nouveaux cas d’usages pour la Business Intelligence. La société américaine Netflix, une web tv multi-plateforme et à la demande, a par exemple stocké des informations de plus en plus détaillées, issues des terminaux de ses clients (décodeurs, télévision, mobile), avant même d’avoir déterminé précisément pour quels usages ces données allaient être utilisées. Cette approche lui a permis de traiter progressivement des volumes croissants de données, de quelques tera-octets devenus plusieurs pétaoctets de données « utiles », sans avoir à anticiper cette montée en charge. Autre exemple, celui d’un grand distributeur qui tire partie de cette propriété d’élasticité pour décharger les données de systèmes centraux centralisées ou très grandes bases de données décisionnelles, les répartir sur une multitude de serveurs réquisitionnés pour quelques heures seulement puis réaffectés ensuite à d’autres tâches. Ceci lui permet par exemple de réajuster plus fréquemment ses prix de vente à la demande du marché, et à l’ajuster au contexte de chaque zone de chalandise, magasins…
Alors que le monde de la BI a appris à travailler avec des ressources coûteuses, donc relativement limitées et dont l’allocation doit se faire en amont, le monde de l’Internet a pris une approche radicalement différente. Il s’est efforcé de banaliser à l’extrême les ressources matérielles sous jacentes et de les rendre disponibles en self-service. Puis, il a réinventé les applications pour les exploiter de manière dynamique, en les rendant capables de paralléliser les traitements à l’extrême et d’allouer ou de désallouer les ressources de manière totalement dynamique et automatique.
Utiliser cette approche dans la BI n’est pas chose simple, car c’est un peu contre nature par rapport à toutes les bonnes pratiques apprises pendant toutes ces années. Mais le Big Data incite à cette rupture : le data warehouse doit évoluer progressivement d’une architecture centralisée et homogène vers une architecture distribuée et protéiforme. Parce qu’il est particulièrement adapté à ces nouvelles architectures, le cloud a une place à prendre, au moins pour compléter l’architecture data warehouse existante sur certains types de données ou pour certains traitements.
Il est un autre domaine que les environnements BI traditionnels peinent à adresser, à tel point que c’est devenu un sujet sensible : la capacité à intégrer de nouvelles sources de données au fil de l’eau. S’ils ont progressé dans leur capacité à permettre aux utilisateurs d’explorer les données sur des chemins non prédéfinis, ils sont en général incapables d’intégrer de nouvelles sources de données en dehors des phases amont du projet. Parfois même, l’intégration de nouvelles données impose une refonte de leur architecture. Pourtant, le constat est que notre économie crée de nouvelles données à un rythme de plus en plus rapide. A la manière des e-commerçants qui sont parvenus à élargir considérablement leur catalogue - et leur chiffre d’affaires - en mettant en place des places de marché externes, les systèmes de BI ne devront elle pas mettre en place leur place de marché de données pour intégrer rapidement de nouvelles sources de données sans pour autant passer par l’entrepôt traditionnel ? Si la réponse est positive, le cloud y jouera de toute évidence une place prépondérante.
Second axe de rupture : les coûts
Pour attaquer le marché de la BI en son cœur, il faut s’attaquer à la base de données. Or, parmi tous les composants d’un système d’information, la base de données est sans aucun doute le plus difficile à déloger. Les bases de données relationnelles généralistes sont certes parvenues à créer la rupture dans les années 1990, mais depuis, elles n’ont laissé que des miettes à leurs alternatives. Certaines, comme Teradata, sont incontournables sur le très haut de gamme, mais ne représentent au final que quelques points de part de marché. Il en est de même pour les bases décisionnelles dédiées comme Sybase IQ, ou les bases OLAP comme Oracle Essbase. Un nouveau et puissant vent d’innovation souffle sur le marché des bases de données. Mais sera-t-il suffisant pour créer la rupture au cœur des systèmes d’information existants ?
Cette rupture est envisageable, à condition de changer radicalement l’équation économique ! En effet, les coûts liés aux bases de données décisionnelles restent élevés, et souvent dissuasifs dès qu’il s’agit de traiter la « longue traine » des données de l’entreprise, issues de la fédération de toutes les données potentiellement à disposition, voire générée au travers de capteurs.
En annonçant Redshift, Amazon fait beaucoup de bruit dans le landerneau de la Business Intelligence. Pourtant, son offre, fondée sur la base de données ParAccel comme plusieurs autres offres Cloud sur le marché, n’est pas révolutionnaire. Affiché à un prix de 1 000 $ par tera-octet, soit - selon Amazon – le dixième du coût des solutions concurrentes, RedShift intrigue avec son positionnement low cost. Certes, l’offre nécessite de faire face à de nouveaux problèmes encore mal maitrisés : la sécurité bien sûr, mais aussi les transferts de données et le modèle de facturation dont la souplesse n’a pas que des avantages et qu’il faut décortiquer à l’extrême pour pouvoir le comparer aux alternatives (par exemple le coût de transfert de données peut s’avérer plus élevé que le coût de stockage)....
Il n’empêche que Redshift appuie sur un point sensible du décisionnel d’aujourd’hui et du Big Data de demain. Les premiers retours d’expérience, comme celui AirBnb, confirment que cette offre ouvre de nouvelles perspectives de progrès pour le décisionnel sur les axes coût et performance. En agissant ainsi, Amazon n’ouvre-t-il pas une brèche dans lequel d’autres vont s’engouffrer, tant du côté des entreprises utilisatrices que du côté des fournisseurs du marché ? Déjà, certains acteurs comme Pentaho ou Informatica s’y sont engouffrés, non seulement en annonçant des déclinaisons de leurs offres respectives dédiées à Redshift, mais aussi en en modifiant le modèle économique pour s’aligner au modèle de tarification du cloud.
Redshift n’est évoqué ici qu’à titre d’exemple. Ce qu’il faut en retenir, c’est que le cloud est susceptible de démocratiser des solutions haut de gamme, jusqu’ici réservées aux très grands groupes, en les mettant à disposition de populations qui n’y avaient pas accès jusque-là. Il s’agit là sans doute de petites et moyennes entreprises, mais également de directions fonctionnelles, comme les directions marketing, notamment, qui pour quelques euros de l’heure, peuvent avoir accès de manière très souple à des capacités de traitement considérables. Reste bien sûr à les maitriser et à savoir les exploiter dans la durée.
Troisième axe de rupture : l’information partagée au sens large, au-delà de l’entreprise
Selon le Gartner, d’ici 2016, 30% des entreprises commercialiseront leur capital informationnel. Même si l’information partagée ne s’associe pas forcément à une transaction financière, nous observons déjà cette tendance en tant que consommateurs : tel fournisseur d’équipement sportif intègre des puces électroniques à ses équipements pour devenir votre coach sportif numérique, tel fournisseur d’électricité ou de gaz vous propose de mieux consommer par l’analyse de votre facture, telle collectivité met à disposition les données sur les services publics qu’elle propose, etc.
Pour une entreprise, partager l’information avec des tiers remet en cause les architectures existantes : il faut passer de l’autre côté du firewall de l’entreprise ; il faut cibler une population plus large et fluctuante ; il faut pouvoir proposer un modèle de facturation à l’usage et adapter le modèle de coûts en conséquence.
Voilà autant de caractéristiques qui orientent naturellement vers le cloud. C’est du reste ce cas d’usage qui semble tirer la demande à court terme, de manière plus forte que les deux autres axes de rupture évoqués, puisque tirés par la demande plus que par l’offre.