Des systèmes d’information en limite de rupture
Explosion de l’économie digitale, consumérisation de l'IT, généralisation des services mobiles, déploiement massif de capteurs intelligents (puces RFID, voitures connectées, compteurs intelligents, capteur biométrique, caméra numérique, système de géolocalisation, bracelet électronique à vocation médicale, sportive ou sécuritaire, lunette digitale…), monétisation des API, IT-As-A-Service, Opensource, Cloud computing et récemment Big Data…la liste n’en finit pas des moteurs de transformation des business models des entreprises qui mettent à mal le Système d’Information, composant au combien stratégique dans toutes les industries, voire cœur de production pour certaines comme les établissements financiers.
Aujourd’hui sur le chemin critique des innovations de l'entreprise et exposé en continu à des sollicitations multiples et en nombre, à une déferlante de nouveaux usages sans précédent, le système d’information se trouve à nouveau sous haute-pression, poussé dans ses ultimes retranchements et à la limite du coma ‘data-ique’.
Il doit ainsi concomitamment porter la double responsabilité de garant de la performance d’exécution des processus clés de l'entreprise, mais aussi de partenaire actif à l'exploitation pertinente et sans latence métier des flots de données brutes qui s’amoncèlent sans discontinuité et à un rythme exponentiel croissant dans ses artères, l’engraisse et le menace d’ « infobésité ».
Aujourd’hui sur le chemin critique des innovations de l'entreprise et exposé en continu à des sollicitations multiples et en nombre, à une déferlante de nouveaux usages sans précédent, le système d’information se trouve à nouveau sous haute-pression, poussé dans ses ultimes retranchements et à la limite du coma ‘data-ique’.
Il doit ainsi concomitamment porter la double responsabilité de garant de la performance d’exécution des processus clés de l'entreprise, mais aussi de partenaire actif à l'exploitation pertinente et sans latence métier des flots de données brutes qui s’amoncèlent sans discontinuité et à un rythme exponentiel croissant dans ses artères, l’engraisse et le menace d’ « infobésité ».
Des systèmes d’information plastiques, mais pas élastiques
Si les architectures orientée services (Service Oriented Architecture) ont permis d’accroitre la limite de plasticité du SI, de relever des challenges tels que le multicanal et l'ouverture de la chaîne de valeur de l’entreprise à des tiers, tant en amont (coté fournisseurs) qu’en aval (coté distributeurs) et de répondre au nouveau mix-industriel de l’informatique moderne d’orchestration et intégration de services construits, achetés ou loués (On premise et Cloud), le puissant et acclamé concept de services n’apporte pas de solution efficace aux nouveaux enjeux d’intégrité et d’élasticité applicative à la demande : morcellement du SI, amoncellement de couches intermédiaires sur les systèmes historiques, goulots d'étranglement, points uniques de défaillance…
Dès lors, comment permettre au SI de brûler efficacement les données les plus caloriques qu’elles soient en stock (at-rest) ou en transit (in-motion) sans en modifier en profondeur l’ADN ? N’existerait-il pas un remède, une greffe non-invasive permettant d’améliorer la combustion du « carburant donnée » et d’éviter ainsi que l’accumulation des données inexploitées finisse par devenir toxique et en gangrène tous les organes vitaux ?
Dès lors, comment permettre au SI de brûler efficacement les données les plus caloriques qu’elles soient en stock (at-rest) ou en transit (in-motion) sans en modifier en profondeur l’ADN ? N’existerait-il pas un remède, une greffe non-invasive permettant d’améliorer la combustion du « carburant donnée » et d’éviter ainsi que l’accumulation des données inexploitées finisse par devenir toxique et en gangrène tous les organes vitaux ?
Les Data Grid à la rescousse
Historiquement réservées à un cercle de spécialistes (jeux en ligne, télécoms, marchés financiers), popularisées par l'engouement Big Data, les Data Grids sont prêtes à offrir leurs bienfaits à un public élargi et à exalter leurs caractéristiques et performances remarquables en support au data-crunching i.e. à la manipulation de données de masse statiques ou dynamiques (indexation, filtrage, agrégation, éclatement, enrichissement, rapprochement, croissement…).
Agissant comme une boisson énergisante, la Data Grid dope le SI et lui permet d’encaisser sans essoufflement les bourrasques de données et ce sans altération profonde de ses facultés actuelles.
Placée dans les couloirs du SI les plus fréquentés, le rôle de la Data Grid va au-delà d'un simple cache de données : elle agit en véritable délégataire actif pour le compte des systèmes maîtres, accepte gracieusement les requêtes de toute part, applique les contrôles qualité de première ligne, authentifie et habilite, met à disposition la donnée au plus proche des utilisateurs, route et notifie les systèmes intéressés.
Construite sur une architecture partitionnée et distribuée, répliquée et persistée, elle est l’assurance tout risque attendue pour la gestion des données critiques :
• Réseau peer-to-peer de traitement et de stockage, elles s'adaptent dynamiquement à la topologie technique, locale (LAN) ou étendue (WAN).
• Stockage en mémoire, ses temps de réponse font pâlir les plus véloces bases de données.
Agissant comme une boisson énergisante, la Data Grid dope le SI et lui permet d’encaisser sans essoufflement les bourrasques de données et ce sans altération profonde de ses facultés actuelles.
Placée dans les couloirs du SI les plus fréquentés, le rôle de la Data Grid va au-delà d'un simple cache de données : elle agit en véritable délégataire actif pour le compte des systèmes maîtres, accepte gracieusement les requêtes de toute part, applique les contrôles qualité de première ligne, authentifie et habilite, met à disposition la donnée au plus proche des utilisateurs, route et notifie les systèmes intéressés.
Construite sur une architecture partitionnée et distribuée, répliquée et persistée, elle est l’assurance tout risque attendue pour la gestion des données critiques :
• Réseau peer-to-peer de traitement et de stockage, elles s'adaptent dynamiquement à la topologie technique, locale (LAN) ou étendue (WAN).
• Stockage en mémoire, ses temps de réponse font pâlir les plus véloces bases de données.
A consommer sans modération
Alors que les utilisateurs réclament une expérience toujours plus fluide et une immersion numérique totale, les Data Grids , boudées par les architectes jusqu’à présents, sont en bonne voie pour une dépénalisation et une démocratisation généralisée à condition de mettre en place les dispositifs de gouvernance des données adéquates, notamment dans les systèmes d’information encore organisés en silos.
Coté solutions, Oracle Coherence, VMware GemFire, Terracotta BigMemory, TIBCO ActiveSpaces, JBoss Data Grid, ScaleOut StateServer… permettent dès aujourd’hui de ‘data-grider’ en toute légalité le système d’information en en dopant les capacités : bus universel d'un SI tout connecté, entremetteur d’évènements métier, near cache embarqué par chaque data-acteur, système analytique temps réel en mémoire, partage transverse de contexte d’exécution, hyperviseur de suivi bout en bout...
Ainsi super-chargé en « data-stéroïde », le système d’information peut se délecter avec gourmandise des Big data.
Coté solutions, Oracle Coherence, VMware GemFire, Terracotta BigMemory, TIBCO ActiveSpaces, JBoss Data Grid, ScaleOut StateServer… permettent dès aujourd’hui de ‘data-grider’ en toute légalité le système d’information en en dopant les capacités : bus universel d'un SI tout connecté, entremetteur d’évènements métier, near cache embarqué par chaque data-acteur, système analytique temps réel en mémoire, partage transverse de contexte d’exécution, hyperviseur de suivi bout en bout...
Ainsi super-chargé en « data-stéroïde », le système d’information peut se délecter avec gourmandise des Big data.
Autres articles
-
[Promotion] Livre Blanc Alteryx : La science des données en pratique
-
Maîtriser ses données sur le Cloud : l'ESILV apprend aux étudiants à dompter le Big Data sur 120 machines
-
De quelle façon trois générations de disques durs Toshiba ont aidé le plus grand laboratoire de physique du monde à conserver, chaque seconde, des centaines de téraoctets de données générées par les expériences du LHC
-
Big Data & Big Brother : de l’intérêt de connaître notre ADN
-
Livre : Big Data, le traitement streaming et temps réel des données