Emmanuel Serrurier, Directeur Général France d’Informatica
La réponse n’est pas l’anarchie des données, mais la démocratie des données.
Comment, alors, les entreprises peuvent-elles faire évoluer leur architecture IT pour assurer la démocratie des données ? Emmanuel Serrurier, Directeur Général d’Informatica France propose sept bonnes pratiques spécifiques qui ont abouti à des processus d’analyse décisionnelle plus performants sans l’anarchie des données.
1/ Automatiser l’importation de données avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances. Avec des plates-formes de données efficaces et évolutives telles que Hadoop, les données non préparées peuvent être ingérées à l’état brut, sans processus manuels et complexes. Le processus d’automatisation d’importation avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances permettent de gagner en agilité et en rapidité.
2/ Adapter les données aux différentes catégories d’analystes. Les nouvelles catégories de data scientists peuvent préférer obtenir très rapidement des données propres à 70 % contrairement aux utilisateurs de systèmes de BI classiques qui sont prêts à attendre des données propres à 100 %. Différentes catégories de données adaptées peuvent être fournies sur des plates-formes telles que Hadoop avec des outils de profilage et de validation des données rapides.
3/ Permettre aux utilisateurs de données d’intégrer facilement des données avec les leurs. La qualité des données ne doit plus être un processus purement IT. Après un nettoyage initial, il faut permettre aux utilisateurs de données techniques tels que les Data Scientists d’accéder directement aux données avec des outils d’intégration de données légers pour qu’ils puissent collaborer dans le processus de curation des données.
4/ Exécuter un processus de curation de données agile avec des fonctions de collaboration multi-utilisateurs et de prototypage rapide. La rapidité et le succès des projets Big Data sont toujours le fruit de la collaboration entre les parties prenantes et le département IT. Les outils multifacettes offrant des fonctions de prototypage rapide font de la curation de données un processus agile qui apporte rapidement de la valeur ajoutée.
5/ Surveiller la qualité des données au lieu d’en assurer la microgestion. La qualité des données ne doit pas être un processus fixe appliqué de la même façon à toutes les données. La surveillance et les alertes fondées sur des règles permettent au département IT de contrôler de manière flexible les processus liés aux données et d’assurer la visibilité de la qualité des différents types de données de manière collaborative.
6/ Permettre d’accéder aux données par le biais de la virtualisation ou du courtage. Avant de connaître la valeur des données, il n’est pas logique de les transférer à partir d’un système source. La virtualisation des données permet de fournir des vues rapides d’ensembles de données sans les transférer. Lorsque la valeur des données est connue, il est possible d’automatiser le transfert et la curation des données avec un courtier en données, qui intègre automatiquement les données dans une plate-forme centrale et permet aux utilisateurs d’y souscrire.
7/ Utiliser un catalogue de métadonnées universel alimenté par une solution d’analyse des données pour optimiser la rentabilité des données. Les nouvelles techniques d’apprentissage automatique et technologies graphiques peuvent être utilisées pour découvrir la structure, le sens et la valeur des données. Ces connaissances sont ensuite mises à la disposition des analystes et des informaticiens pour renforcer leur autonomie, tout en améliorant les processus de sécurité et de gouvernance.
Les avantages offerts par les architectures IT modernes permettent aux entreprises de fournir constamment les bonnes données au bon moment pour effectuer des analyses plus pertinentes et fiables. Ces pratiques constituent la base de la hiérarchisation des données. Les Chief Data Officers (directeurs de données) qui réussiront feront partis de ceux qui utiliseront des architectures IT évoluées pour développer une démocratie des données bien gouvernée et sécurisée.
Comment, alors, les entreprises peuvent-elles faire évoluer leur architecture IT pour assurer la démocratie des données ? Emmanuel Serrurier, Directeur Général d’Informatica France propose sept bonnes pratiques spécifiques qui ont abouti à des processus d’analyse décisionnelle plus performants sans l’anarchie des données.
1/ Automatiser l’importation de données avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances. Avec des plates-formes de données efficaces et évolutives telles que Hadoop, les données non préparées peuvent être ingérées à l’état brut, sans processus manuels et complexes. Le processus d’automatisation d’importation avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances permettent de gagner en agilité et en rapidité.
2/ Adapter les données aux différentes catégories d’analystes. Les nouvelles catégories de data scientists peuvent préférer obtenir très rapidement des données propres à 70 % contrairement aux utilisateurs de systèmes de BI classiques qui sont prêts à attendre des données propres à 100 %. Différentes catégories de données adaptées peuvent être fournies sur des plates-formes telles que Hadoop avec des outils de profilage et de validation des données rapides.
3/ Permettre aux utilisateurs de données d’intégrer facilement des données avec les leurs. La qualité des données ne doit plus être un processus purement IT. Après un nettoyage initial, il faut permettre aux utilisateurs de données techniques tels que les Data Scientists d’accéder directement aux données avec des outils d’intégration de données légers pour qu’ils puissent collaborer dans le processus de curation des données.
4/ Exécuter un processus de curation de données agile avec des fonctions de collaboration multi-utilisateurs et de prototypage rapide. La rapidité et le succès des projets Big Data sont toujours le fruit de la collaboration entre les parties prenantes et le département IT. Les outils multifacettes offrant des fonctions de prototypage rapide font de la curation de données un processus agile qui apporte rapidement de la valeur ajoutée.
5/ Surveiller la qualité des données au lieu d’en assurer la microgestion. La qualité des données ne doit pas être un processus fixe appliqué de la même façon à toutes les données. La surveillance et les alertes fondées sur des règles permettent au département IT de contrôler de manière flexible les processus liés aux données et d’assurer la visibilité de la qualité des différents types de données de manière collaborative.
6/ Permettre d’accéder aux données par le biais de la virtualisation ou du courtage. Avant de connaître la valeur des données, il n’est pas logique de les transférer à partir d’un système source. La virtualisation des données permet de fournir des vues rapides d’ensembles de données sans les transférer. Lorsque la valeur des données est connue, il est possible d’automatiser le transfert et la curation des données avec un courtier en données, qui intègre automatiquement les données dans une plate-forme centrale et permet aux utilisateurs d’y souscrire.
7/ Utiliser un catalogue de métadonnées universel alimenté par une solution d’analyse des données pour optimiser la rentabilité des données. Les nouvelles techniques d’apprentissage automatique et technologies graphiques peuvent être utilisées pour découvrir la structure, le sens et la valeur des données. Ces connaissances sont ensuite mises à la disposition des analystes et des informaticiens pour renforcer leur autonomie, tout en améliorant les processus de sécurité et de gouvernance.
Les avantages offerts par les architectures IT modernes permettent aux entreprises de fournir constamment les bonnes données au bon moment pour effectuer des analyses plus pertinentes et fiables. Ces pratiques constituent la base de la hiérarchisation des données. Les Chief Data Officers (directeurs de données) qui réussiront feront partis de ceux qui utiliseront des architectures IT évoluées pour développer une démocratie des données bien gouvernée et sécurisée.
Autres articles
-
Informatica annonce un vaste programme d'innovations pour les solutions d'analyse et d’IA générative, basé sur AWS
-
Informatica apporte sa contribution aux mégatendances de Microsoft Azure (IA générative, Microsoft Fabric et format en tables de données ouvertes) avec de nouvelles fonctionnalités
-
Informatica annonce la disponibilité générale de CLAIRE-GPT basée sur la GenAI en Europe et dans la région Asie-Pacifique
-
Informatica met à disposition des blueprints pour simplifier et accélérer le développement d'IA générative sur les principales plateformes technologiques
-
Informatica s'associe à HowGood pour permettre à l'industrie alimentaire de prendre des décisions de développement durable basées sur des données et faciliter la conformité ESG