Nous vivons désormais dans un monde où les CTO (Chief Transformation Officier) sont sur la sellette et où l'informatique à deux vitesses (ou bimodale) est une réalité universelle. Les projets DevOps similaires à ceux mis en œuvre par les startups, y compris les licornes, accélèrent la mutation et augmentent l'agilité des grandes entreprises dans le but d'améliorer leur compétitivité.
Mais ce qui fait le succès des licornes est loin d'être simple à reproduire dans les infrastructures de sociétés plus anciennes.
Bien sûr, certaines applications destinées au client final et qui s'appuient sur des fondations DevOps fournissent d'excellents résultats aux grands groupes. À y regarder de plus près toutefois, il est probable que les données de ces applications inédites soient en fait hébergées dans un silo tout neuf, non intégré aux silos anciens où résident les autres données de l'entreprise.
Mais ce qui fait le succès des licornes est loin d'être simple à reproduire dans les infrastructures de sociétés plus anciennes.
Bien sûr, certaines applications destinées au client final et qui s'appuient sur des fondations DevOps fournissent d'excellents résultats aux grands groupes. À y regarder de plus près toutefois, il est probable que les données de ces applications inédites soient en fait hébergées dans un silo tout neuf, non intégré aux silos anciens où résident les autres données de l'entreprise.
Venir à bout des silos
Or, cette stratégie va à l'encontre de l'une des priorités du CTO : l'anéantissement des silos. Les directeurs informatiques savent que les précieuses données qui y sont engrangées constituent un avantage concurrentiel sur les « upstarts » et les startups... à condition de pouvoir les intégrer facilement pour obtenir une vision unique à 360°.
Arriver à se débarrasser complètement de leur infrastructure informatique et repartir de zéro à l'aide des principes DevOps n'est qu'un doux rêve pour les grandes entreprises. Elles ont donc besoin d'intégrer les données « monomodales » stockées dans les systèmes existants de gestion de la relation client (CRM), des contrats et de la facturation aux nouvelles données « bimodales » recueillies par les récentes applications métier. Ces dernières sont souvent utilisées directement par le client final et sont généralement une initiative du service marketing plutôt que du service informatique.
Les grandes sociétés peuvent se passer des fameux chasseurs de fantômes à l'uniforme beige et armés de packs à protons. En revanche, l'équivalent informatique ou « SOS Silos » pourrait bien leur être nécessaire. Une méthode musclée de la gestion des données qui se montre implacable envers les silos peut bannir à tout jamais vos cauchemars d'intégration des données.
Prenons l'exemple d'un fabricant automobile de luxe. Imaginons qu'il souhaite jouer la carte de la proximité avec ses clients pour protéger sa part de marché face aux nouveaux venus comme Tesla. Le fabricant lance une superbe application multi-plateforme et multi-appareil selon une stratégie DevOps. Celle-ci permet aux clients de s'informer facilement sur les nouveaux modèles, de les comparer, de connaître le coût d'un véhicule personnalisé ou de réserver un essai routier. Pour que cette application ait une réelle valeur ajoutée, toutes les données générées par ces interactions client doivent être intégrées aux données de concessionnaires existantes et résidant dans des silos hérités (les systèmes CRM ou de facturation, les bases de données de planification de la production, etc.).
Sans une vision à 360°, l'entreprise aura du mal à savoir que M. Dupont, qui habite à Loches, en France, et qui vient de réserver un essai routier, a été de longues années un client en LLD, avant de soudainement disparaître en 2015. Connaître tous les détails sur la relation de M. Dupont avec la marque permet de personnaliser les interactions pour tenter de le fidéliser à nouveau.
En réalité, dans une perspective de croissance, les nouvelles applications ne peuvent pas fonctionner indépendamment des applications existantes. Comment les grandes entreprises peuvent-elles donc allier les nouveaux systèmes informatiques (flexibles mais potentiellement instables) à leurs aînés (statiques mais plus robustes) ?
Arriver à se débarrasser complètement de leur infrastructure informatique et repartir de zéro à l'aide des principes DevOps n'est qu'un doux rêve pour les grandes entreprises. Elles ont donc besoin d'intégrer les données « monomodales » stockées dans les systèmes existants de gestion de la relation client (CRM), des contrats et de la facturation aux nouvelles données « bimodales » recueillies par les récentes applications métier. Ces dernières sont souvent utilisées directement par le client final et sont généralement une initiative du service marketing plutôt que du service informatique.
Les grandes sociétés peuvent se passer des fameux chasseurs de fantômes à l'uniforme beige et armés de packs à protons. En revanche, l'équivalent informatique ou « SOS Silos » pourrait bien leur être nécessaire. Une méthode musclée de la gestion des données qui se montre implacable envers les silos peut bannir à tout jamais vos cauchemars d'intégration des données.
Prenons l'exemple d'un fabricant automobile de luxe. Imaginons qu'il souhaite jouer la carte de la proximité avec ses clients pour protéger sa part de marché face aux nouveaux venus comme Tesla. Le fabricant lance une superbe application multi-plateforme et multi-appareil selon une stratégie DevOps. Celle-ci permet aux clients de s'informer facilement sur les nouveaux modèles, de les comparer, de connaître le coût d'un véhicule personnalisé ou de réserver un essai routier. Pour que cette application ait une réelle valeur ajoutée, toutes les données générées par ces interactions client doivent être intégrées aux données de concessionnaires existantes et résidant dans des silos hérités (les systèmes CRM ou de facturation, les bases de données de planification de la production, etc.).
Sans une vision à 360°, l'entreprise aura du mal à savoir que M. Dupont, qui habite à Loches, en France, et qui vient de réserver un essai routier, a été de longues années un client en LLD, avant de soudainement disparaître en 2015. Connaître tous les détails sur la relation de M. Dupont avec la marque permet de personnaliser les interactions pour tenter de le fidéliser à nouveau.
En réalité, dans une perspective de croissance, les nouvelles applications ne peuvent pas fonctionner indépendamment des applications existantes. Comment les grandes entreprises peuvent-elles donc allier les nouveaux systèmes informatiques (flexibles mais potentiellement instables) à leurs aînés (statiques mais plus robustes) ?
Une approche centrée sur les données
Deux options pour faire face à ce fonctionnement à deux vitesses s'offrent aux CTO :
1) Se concentrer sur la création de processus pour établir un modèle d'intégration. L'objectif est de veiller à ce que les données collectées par une application soient transmises aux vieux systèmes et résident dans les deux types de silo. Malheureusement, cela ne permet pas de créer des liens entre les silos ou de les interroger. Les avantages de cette solution restent donc limités.
2) Opter pour une méthode centrée sur les données qui agrège toutes les données issues du nouveau silo et de l'ancien dans un hub de données opérationnelles (ODH). Le hub est en quelque sorte une passerelle entre les systèmes informatiques. Il représente un classeur virtuel contenant toutes les données de l'entreprise qui peuvent être combinées pour obtenir de nouvelles informations pertinentes sur les clients, entre autres. Ce modèle est le plus adapté pour les entreprises en pleine transformation numérique car il résout le problème de l'intégration des données tout en étant extrêmement flexible.
L'approche centrée sur les données est rendue possible par la superposition d'un hub de données opérationnelles et d'une base de données Enterprise NoSQL qui prend en charge tous les types de données. Toutes les données issues des nouvelles applications DevOps sont stockées directement dans le hub, tandis que les données des anciennes applications (qui, rappelons-le, résident dans leurs propres silos de base de données, tels que les systèmes CRM et de facturation) sont virtualisées dans le hub à la demande. Cette vue agrégée permet de rechercher et d'analyser facilement les données en constante évolution sur l'ensemble des silos, pour obtenir une visibilité exploitable.
Il est vrai que ce modèle exige lui aussi de nouveaux processus, mais ceux-ci n'ont qu'un faible coût. Dès lors qu'une base de données sous-jacente adaptée est en place, les processus sont très faciles à programmer sans qu'il ne soit nécessaire d'écrire une version différente pour chaque API, car la base de données s'occupe de tout.
Ce modèle permet également de rassurer les entreprises qui s'inquiètent du fossé grandissant entre leurs informaticiens « monomodaux » proches de la retraite et spécialisés en Cobol, mainframe et autres SAP et leurs dernières recrues, des pointures « bimodaux/DevOps » experts en Javascript et Scrum à peine sortis de la fac et qui n'ont pas l'habitude des responsabilités. Alors que la génération monomodale part peu à peu à la retraite, la présence d'un hub de données opérationnelles facilite la transition. En effet, les données hébergées par les vieux systèmes restent accessibles aux nouveaux informaticiens par le biais des API, jusqu'à leur disparition.
Savoir quelle base de données NoSQL choisir ne va pas forcément de soi. Certaines, toutefois, offrent un nombre de fonctionnalités supplémentaires particulièrement utiles, non seulement en ce qui concerne la transformation numérique, mais aussi dans le domaine de la conformité et de la gouvernance. Voici quelques critères indispensables :
- Sécurité. Les anciens systèmes étaient généralement tellement isolés que la sécurité ne constituait pas une préoccupation majeure. En revanche, les nouvelles applications utilisées par le client final sont bien plus vulnérables, le nombre de fuites d’informations sont là pour nous le rappeler. La virtualisation des anciennes données dans le hub de données où elles côtoient les « nouvelles » données a le potentiel d'amplifier ces risques de sécurité.
La plupart des fournisseurs de bases de données NoSQL vantent les fonctionnalités sécuritaires de leur produit, alors qu'elles sont inadéquates dans le paysage informatique actuel, caractérisé par des fuites constantes. Il est essentiel d'opter pour une plate-forme qui embarque une sécurité de classe gouvernementale, pour vous offrir une protection maximale contre les attaques de hackers ou les tentatives de sabotage d'employés mécontents.
- Fonctionnalités de recherche, sémantiques et géospatiales. Centraliser des données riches ne sert pas à grand chose si l'on n'est pas en mesure de les interroger ou de les analyser rapidement et facilement. De nos jours, une plate-forme de bases de données qui offre des fonctionnalités de recherche similaires à Google constitue le strict minimum. Par ailleurs, l'intégration de la recherche sémantique et géospatiale devient de plus en plus indispensable. La recherche sémantique facilite la découverte de nouveaux modèles, relations et tendances au sein des données, tandis que le filtrage et la superposition des données ou du contenu géospatial tels que le texte, les images et la vidéo ajoutent une dimension supplémentaire aux analyses d'informations des applications client/citoyen à 360°.
- Bitemporalité. Cette fonctionnalité permet aux acteurs des secteurs réglementés tels que les services financiers de limiter les risques grâce au « voyage virtuel dans le temps », c'est-à-dire l'horodatage des documents et le contrôle des versions pour identifier les évolutions dans le temps. Ainsi, les banques d'investissement peuvent se servir de la bitemporalité dans leurs applications de reporting métier exigées par les organismes réglementaires et qui s'appuient sur la vérification des données du hub issues des anciens systèmes . Par ailleurs, toutes les entreprises peuvent également respecter plus facilement les nouvelles obligations telles que celles définies par le Règlement européen Général sur la Protection des Données (RGPD) en matière de données à caractère personnel.
Le phénomène DevOps est en passe de devenir la norme tant dans le secteur public que privé. De nombreuses entreprises éprouvent des difficultés à intégrer des données issues d'applications client ou métier (dont le nombre et le type ne cessent d'augmenter) avec des volumes colossaux de données existantes. À l'heure actuelle, nous ne voyons que la pointe émergée de l'iceberg nommé « transformation numérique ». L'informatique à deux vitesses est un problème qui n'est pas près de disparaître. Autrement dit, trouver sa propre solution « SOS silos » est une urgence qui n'a rien d'imaginaire.
1) Se concentrer sur la création de processus pour établir un modèle d'intégration. L'objectif est de veiller à ce que les données collectées par une application soient transmises aux vieux systèmes et résident dans les deux types de silo. Malheureusement, cela ne permet pas de créer des liens entre les silos ou de les interroger. Les avantages de cette solution restent donc limités.
2) Opter pour une méthode centrée sur les données qui agrège toutes les données issues du nouveau silo et de l'ancien dans un hub de données opérationnelles (ODH). Le hub est en quelque sorte une passerelle entre les systèmes informatiques. Il représente un classeur virtuel contenant toutes les données de l'entreprise qui peuvent être combinées pour obtenir de nouvelles informations pertinentes sur les clients, entre autres. Ce modèle est le plus adapté pour les entreprises en pleine transformation numérique car il résout le problème de l'intégration des données tout en étant extrêmement flexible.
L'approche centrée sur les données est rendue possible par la superposition d'un hub de données opérationnelles et d'une base de données Enterprise NoSQL qui prend en charge tous les types de données. Toutes les données issues des nouvelles applications DevOps sont stockées directement dans le hub, tandis que les données des anciennes applications (qui, rappelons-le, résident dans leurs propres silos de base de données, tels que les systèmes CRM et de facturation) sont virtualisées dans le hub à la demande. Cette vue agrégée permet de rechercher et d'analyser facilement les données en constante évolution sur l'ensemble des silos, pour obtenir une visibilité exploitable.
Il est vrai que ce modèle exige lui aussi de nouveaux processus, mais ceux-ci n'ont qu'un faible coût. Dès lors qu'une base de données sous-jacente adaptée est en place, les processus sont très faciles à programmer sans qu'il ne soit nécessaire d'écrire une version différente pour chaque API, car la base de données s'occupe de tout.
Ce modèle permet également de rassurer les entreprises qui s'inquiètent du fossé grandissant entre leurs informaticiens « monomodaux » proches de la retraite et spécialisés en Cobol, mainframe et autres SAP et leurs dernières recrues, des pointures « bimodaux/DevOps » experts en Javascript et Scrum à peine sortis de la fac et qui n'ont pas l'habitude des responsabilités. Alors que la génération monomodale part peu à peu à la retraite, la présence d'un hub de données opérationnelles facilite la transition. En effet, les données hébergées par les vieux systèmes restent accessibles aux nouveaux informaticiens par le biais des API, jusqu'à leur disparition.
Savoir quelle base de données NoSQL choisir ne va pas forcément de soi. Certaines, toutefois, offrent un nombre de fonctionnalités supplémentaires particulièrement utiles, non seulement en ce qui concerne la transformation numérique, mais aussi dans le domaine de la conformité et de la gouvernance. Voici quelques critères indispensables :
- Sécurité. Les anciens systèmes étaient généralement tellement isolés que la sécurité ne constituait pas une préoccupation majeure. En revanche, les nouvelles applications utilisées par le client final sont bien plus vulnérables, le nombre de fuites d’informations sont là pour nous le rappeler. La virtualisation des anciennes données dans le hub de données où elles côtoient les « nouvelles » données a le potentiel d'amplifier ces risques de sécurité.
La plupart des fournisseurs de bases de données NoSQL vantent les fonctionnalités sécuritaires de leur produit, alors qu'elles sont inadéquates dans le paysage informatique actuel, caractérisé par des fuites constantes. Il est essentiel d'opter pour une plate-forme qui embarque une sécurité de classe gouvernementale, pour vous offrir une protection maximale contre les attaques de hackers ou les tentatives de sabotage d'employés mécontents.
- Fonctionnalités de recherche, sémantiques et géospatiales. Centraliser des données riches ne sert pas à grand chose si l'on n'est pas en mesure de les interroger ou de les analyser rapidement et facilement. De nos jours, une plate-forme de bases de données qui offre des fonctionnalités de recherche similaires à Google constitue le strict minimum. Par ailleurs, l'intégration de la recherche sémantique et géospatiale devient de plus en plus indispensable. La recherche sémantique facilite la découverte de nouveaux modèles, relations et tendances au sein des données, tandis que le filtrage et la superposition des données ou du contenu géospatial tels que le texte, les images et la vidéo ajoutent une dimension supplémentaire aux analyses d'informations des applications client/citoyen à 360°.
- Bitemporalité. Cette fonctionnalité permet aux acteurs des secteurs réglementés tels que les services financiers de limiter les risques grâce au « voyage virtuel dans le temps », c'est-à-dire l'horodatage des documents et le contrôle des versions pour identifier les évolutions dans le temps. Ainsi, les banques d'investissement peuvent se servir de la bitemporalité dans leurs applications de reporting métier exigées par les organismes réglementaires et qui s'appuient sur la vérification des données du hub issues des anciens systèmes . Par ailleurs, toutes les entreprises peuvent également respecter plus facilement les nouvelles obligations telles que celles définies par le Règlement européen Général sur la Protection des Données (RGPD) en matière de données à caractère personnel.
Le phénomène DevOps est en passe de devenir la norme tant dans le secteur public que privé. De nombreuses entreprises éprouvent des difficultés à intégrer des données issues d'applications client ou métier (dont le nombre et le type ne cessent d'augmenter) avec des volumes colossaux de données existantes. À l'heure actuelle, nous ne voyons que la pointe émergée de l'iceberg nommé « transformation numérique ». L'informatique à deux vitesses est un problème qui n'est pas près de disparaître. Autrement dit, trouver sa propre solution « SOS silos » est une urgence qui n'a rien d'imaginaire.
Autres articles
-
Progress annonce de nouvelles et puissantes fonctionnalités d'IA générative dans sa dernière version de MarkLogic Server
-
Progress présente MarkLogic FastTrack, pour la création d’interfaces graphiques directement connectées aux données de la plateforme de données Progress MarkLogic
-
Progress annonce son intention d'acquérir MarkLogic
-
Les acteurs de la finance misent sur le Data Management pour améliorer leurs décisions en matière d’investissement
-
Les acteurs de la finance misent sur le Data Management pour améliorer leurs décisions en matière d’investissement