L’idéal serait bien sûr de pouvoir transférer l’intégralité du data center dans le cloud, mais cela reste impossible. La majeure partie des entreprises que nous rencontrons expliquent qu’elles sont actuellement en train de rediriger leurs charges applicatives vers le Cloud, mais que tout ne peut pas se faire du jour au lendemain. Sur le chemin de la transition vers le Cloud, il n’est pas rare d’adopter une approche hybride.
Selon une récente étude publiée en juin 2016 par Pierre Audoin Consultant (PAC) sur l’adoption du Cloud hybride en France auprès de 205 entreprises de plus de 500 employés[1], « La transformation numérique constitue la première raison d’adopter une architecture Cloud, après la réduction des coûts. Cette étude révèle également que 80% des entreprises oseront le Cloud public à moyen terme et que 25% des entreprises ont mis en place une informatique hybride. L’usage du Cloud hybride est en plein développement sur le marché français mais les entreprises expriment encore de fortes craintes à l’égard du Cloud public ».
Si les entreprises françaises expriment une appétence pour le Cloud hybride, la démarche prend du temps à se structurer. Et l’intégration de données disparates vient complexifier le processus, une difficulté accentuée par le Cloud hybride. En effet, les données sont partout et se multiplient de façon exponentielle. De même, elle se retrouvent propulsées vers diverses destinations Cloud.
Revenons sur les 4 principaux défis que les entreprises vont être amenées à relever en matière de gouvernance des données dans le cadre de l’implémentation d’une architecture de Cloud hybride.
La connectivité des données : dans une architecture de Cloud hybride, les entreprises sont confrontées à l’intégration et à la gestion de données provenant d’un nombre croissant de divers systèmes pouvant résider dans un Cloud public ou privé, ou sur site. Or, ces données doivent pouvoir être récupérées bien plus rapidement qu’avant. Cela implique la mise en place d’une architecture de gestion des données capable de fournir une connectivité immédiate avec n’importe quelle source de données et n’importe quelle cible. Les exigences en matière de rapidité nécessitent une connectivité native de haute performance, mais la complexité native doit rester transparente pour le développeur. La séparation de la logique d’intégration des sources sous-jacentes améliore considérablement la productivité. Elle permet également aux développeurs de réutiliser facilement la logique d’intégration, telles que les mappings, sur les sources de données et les cibles, d’où une augmentation significative de leur productivité. Il faut veiller à ce que la solution de gestion des données fournisse une connectivité robuste avec tous les systèmes de données, du Cloud au mainframe sans rien oublier entre les deux.
L’évolutivité : les volumes de données connaissent une augmentation fulgurante, la migration vers le Cloud est d’autant plus intéressante qu’elle permet de redimensionner l’environnement et d’offrir de hautes performances à moindre coût. De même, la migration de grandes quantités de données entre des systèmes sur site et un Cloud public est généralement un processus de longue haleine si elle n’est pas effectuée à l’aide des outils appropriés. Par conséquent, pour profiter réellement de l’évolutivité des systèmes de données des Clouds publics, allant jusqu’aux pétaoctets, l’architecture doit inclure une plate-forme d’intégration des données également conçue pour une évolutivité infinie et de haute performance. La plate-forme d’intégration des données doit être intrinsèquement capable de transférer très rapidement d’énormes volumes de données. Elle doit aussi s’adapter de manière dynamique à l’évolution des besoins de l’environnement.
La visibilité des données : le besoin de visibilité complète sur les flux de données devient d’autant plus important que la complexité et les interdépendances de l’environnement de données augmentent. Ce besoin de compréhension des données est réel pour un large éventail de parties prenantes au sein de l’entreprise. Les analystes de données par exemple, doivent tout savoir sur l’origine des données sur lesquelles ils fondent leurs analyses. Ils doivent savoir d’où viennent les données, qui est intervenu dessus et comment elles ont été transformées en tout point de leur parcours. Toutes les parties prenantes, tant commerciales que techniques, ont besoin d’une définition commune et cohérente des termes commerciaux utilisés dans le cadre de la gestion et de l’analyse des données. Par exemple, le terme « revenus » doit avoir la même signification pour tous les membres d’une réunion organisée pour examiner le chiffre d’affaires trimestriel. Les développeurs doivent tout savoir sur les modalités de transfert et de transformation de certaines données au sein de l’entreprise. Ainsi, lorsqu’un programme doit être modifié, ils peuvent analyser le risque de cette modification pour l’entreprise et identifier ses répercussions sur les systèmes, puis la planifier et la mettre en œuvre de manière productive. La seule façon de garantir la compréhension des données par toutes les parties prenantes est d’utiliser une plate-forme de gestion des données fondée sur les métadonnées. Celles-ci constituent la clef de voûte d’une solution de gestion des données fiable et auto documentée, ainsi que le fondement des projets de gouvernance. Dans un environnement de Cloud hybride complexe, il sera difficile de s’y retrouver sans une gestion robuste des métadonnées.
Le contrôle opérationnel : en matière de Cloud hybride, plusieurs processus métiers complexes couvrent l’ensemble de l’environnement de l’entreprise et ont un impact sur plusieurs systèmes de données et applications dans le Cloud et sur site. Un point de contrôle central est alors d’autant plus important qu’il permet d’assurer la performance de l’entreprise. Afin de garantir la sécurité opérationnelle des processus d’intégration de données critiques, il faut être en mesure d’orchestrer, de gérer et de contrôler les données de production circulant dans l’environnement de l’entreprise de bout en bout. Par conséquent, qu’il s’agisse de transférer des données d’un système sur site vers un Cloud public, de charger l’entrepôt hybride de données ou d’intégrer l’écosystème d’applications hybrides, la capacité à gérer tout cela à partir d’un point central de contrôle est essentielle.
Ainsi, pour réussir une gouvernance optimale des données dans un environnement Cloud hybride, il est nécessaire d’implémenter une architecture de gestion des données performante en matière de connectivité, à la fois évolutive et intelligente pour répondre favorablement à la transition numérique des entreprises. Cette architecture permettra de dépasser les freins liés à la complexité, l’hétérogénéité et la multiplicité des données, des systèmes informatiques et des clouds à intégrer et à gérer pour jouir pleinement de l’agilité, de l’élasticité et des bénéfices financiers d’une plateforme Cloud hybride.
[1]Source : https://www.pac-online.com/lusage-du-Cloud-hybride-en-france
Selon une récente étude publiée en juin 2016 par Pierre Audoin Consultant (PAC) sur l’adoption du Cloud hybride en France auprès de 205 entreprises de plus de 500 employés[1], « La transformation numérique constitue la première raison d’adopter une architecture Cloud, après la réduction des coûts. Cette étude révèle également que 80% des entreprises oseront le Cloud public à moyen terme et que 25% des entreprises ont mis en place une informatique hybride. L’usage du Cloud hybride est en plein développement sur le marché français mais les entreprises expriment encore de fortes craintes à l’égard du Cloud public ».
Si les entreprises françaises expriment une appétence pour le Cloud hybride, la démarche prend du temps à se structurer. Et l’intégration de données disparates vient complexifier le processus, une difficulté accentuée par le Cloud hybride. En effet, les données sont partout et se multiplient de façon exponentielle. De même, elle se retrouvent propulsées vers diverses destinations Cloud.
Revenons sur les 4 principaux défis que les entreprises vont être amenées à relever en matière de gouvernance des données dans le cadre de l’implémentation d’une architecture de Cloud hybride.
La connectivité des données : dans une architecture de Cloud hybride, les entreprises sont confrontées à l’intégration et à la gestion de données provenant d’un nombre croissant de divers systèmes pouvant résider dans un Cloud public ou privé, ou sur site. Or, ces données doivent pouvoir être récupérées bien plus rapidement qu’avant. Cela implique la mise en place d’une architecture de gestion des données capable de fournir une connectivité immédiate avec n’importe quelle source de données et n’importe quelle cible. Les exigences en matière de rapidité nécessitent une connectivité native de haute performance, mais la complexité native doit rester transparente pour le développeur. La séparation de la logique d’intégration des sources sous-jacentes améliore considérablement la productivité. Elle permet également aux développeurs de réutiliser facilement la logique d’intégration, telles que les mappings, sur les sources de données et les cibles, d’où une augmentation significative de leur productivité. Il faut veiller à ce que la solution de gestion des données fournisse une connectivité robuste avec tous les systèmes de données, du Cloud au mainframe sans rien oublier entre les deux.
L’évolutivité : les volumes de données connaissent une augmentation fulgurante, la migration vers le Cloud est d’autant plus intéressante qu’elle permet de redimensionner l’environnement et d’offrir de hautes performances à moindre coût. De même, la migration de grandes quantités de données entre des systèmes sur site et un Cloud public est généralement un processus de longue haleine si elle n’est pas effectuée à l’aide des outils appropriés. Par conséquent, pour profiter réellement de l’évolutivité des systèmes de données des Clouds publics, allant jusqu’aux pétaoctets, l’architecture doit inclure une plate-forme d’intégration des données également conçue pour une évolutivité infinie et de haute performance. La plate-forme d’intégration des données doit être intrinsèquement capable de transférer très rapidement d’énormes volumes de données. Elle doit aussi s’adapter de manière dynamique à l’évolution des besoins de l’environnement.
La visibilité des données : le besoin de visibilité complète sur les flux de données devient d’autant plus important que la complexité et les interdépendances de l’environnement de données augmentent. Ce besoin de compréhension des données est réel pour un large éventail de parties prenantes au sein de l’entreprise. Les analystes de données par exemple, doivent tout savoir sur l’origine des données sur lesquelles ils fondent leurs analyses. Ils doivent savoir d’où viennent les données, qui est intervenu dessus et comment elles ont été transformées en tout point de leur parcours. Toutes les parties prenantes, tant commerciales que techniques, ont besoin d’une définition commune et cohérente des termes commerciaux utilisés dans le cadre de la gestion et de l’analyse des données. Par exemple, le terme « revenus » doit avoir la même signification pour tous les membres d’une réunion organisée pour examiner le chiffre d’affaires trimestriel. Les développeurs doivent tout savoir sur les modalités de transfert et de transformation de certaines données au sein de l’entreprise. Ainsi, lorsqu’un programme doit être modifié, ils peuvent analyser le risque de cette modification pour l’entreprise et identifier ses répercussions sur les systèmes, puis la planifier et la mettre en œuvre de manière productive. La seule façon de garantir la compréhension des données par toutes les parties prenantes est d’utiliser une plate-forme de gestion des données fondée sur les métadonnées. Celles-ci constituent la clef de voûte d’une solution de gestion des données fiable et auto documentée, ainsi que le fondement des projets de gouvernance. Dans un environnement de Cloud hybride complexe, il sera difficile de s’y retrouver sans une gestion robuste des métadonnées.
Le contrôle opérationnel : en matière de Cloud hybride, plusieurs processus métiers complexes couvrent l’ensemble de l’environnement de l’entreprise et ont un impact sur plusieurs systèmes de données et applications dans le Cloud et sur site. Un point de contrôle central est alors d’autant plus important qu’il permet d’assurer la performance de l’entreprise. Afin de garantir la sécurité opérationnelle des processus d’intégration de données critiques, il faut être en mesure d’orchestrer, de gérer et de contrôler les données de production circulant dans l’environnement de l’entreprise de bout en bout. Par conséquent, qu’il s’agisse de transférer des données d’un système sur site vers un Cloud public, de charger l’entrepôt hybride de données ou d’intégrer l’écosystème d’applications hybrides, la capacité à gérer tout cela à partir d’un point central de contrôle est essentielle.
Ainsi, pour réussir une gouvernance optimale des données dans un environnement Cloud hybride, il est nécessaire d’implémenter une architecture de gestion des données performante en matière de connectivité, à la fois évolutive et intelligente pour répondre favorablement à la transition numérique des entreprises. Cette architecture permettra de dépasser les freins liés à la complexité, l’hétérogénéité et la multiplicité des données, des systèmes informatiques et des clouds à intégrer et à gérer pour jouir pleinement de l’agilité, de l’élasticité et des bénéfices financiers d’une plateforme Cloud hybride.
[1]Source : https://www.pac-online.com/lusage-du-Cloud-hybride-en-france
Autres articles
-
Informatica apporte sa contribution aux mégatendances de Microsoft Azure (IA générative, Microsoft Fabric et format en tables de données ouvertes) avec de nouvelles fonctionnalités
-
Informatica annonce la disponibilité générale de CLAIRE-GPT basée sur la GenAI en Europe et dans la région Asie-Pacifique
-
Informatica met à disposition des blueprints pour simplifier et accélérer le développement d'IA générative sur les principales plateformes technologiques
-
Informatica s'associe à HowGood pour permettre à l'industrie alimentaire de prendre des décisions de développement durable basées sur des données et faciliter la conformité ESG
-
Fujifilm résout le problème de la fragmentation des données et améliore la prise de décision grâce à la solution de gestion des données de référence (MDM) d'Informatica basée sur l'IA