Pour toutes les sociétés, la qualité des données est une question importante. A mesure que de nouveaux domaines thématiques sont ajoutés dans un entrepôt de données, la valeur des informations se multiplie. Malheureusement, l’impact des erreurs se multiplie également. Le but d’une équipe de gestion de la qualité des données, est de développer des règles communes et une terminologie cohérente, qui seront utilisées par les diverses unités de l’entreprise. Un programme de gestion de la qualité des données permet de promouvoir l’instauration d’une information exploitable dans l’ensemble de l’entreprise, afin que celle-ci mette le cap sur la rentabilité.
Selon le Data Warehousing Institute, la médiocre qualité des données coûte chaque année des milliards d’euros aux entreprises. Dans une récente enquête, près de la moitié des personnes interrogées considère que les données de leur organisation sont «pires que ce qu’ils pouvaient imaginer». Dans ces conditions l’amélioration de la qualité des données, même à petite échelle, peut considérablement influencer la prise de décision dans les entreprises, favorisant ainsi une augmentation des bénéfices. Malheureusement, de nombreuses initiatives en matière de qualité des données ne voient jamais le jour, car la tâche est toujours perçue comme difficile. Ainsi la plupart des entreprises se focalisent principalement sur la rentabilisation à court terme de leur système d’information décisionnel, et n’investissent pas dans la qualité des données.
Cependant, une procédure simple consiste à pointer les principaux problèmes de qualité des données, à créer des règles pour isoler, réparer les erreurs et utiliser ensuite un tableau de bord, pour contrôler et évaluer les zones de qualité des données de manière constante. Un tableau de bord de la qualité des données bien conçu, aide les entreprises à mieux comprendre les problèmes de qualité des données, à évaluer les possibilités d'amélioration et à mesurer le progrès au fil du temps. Il est possible d’élaborer un tableau de bord de la qualité des données, et d'autres rapports de gestion des données en seulement trois semaines. Le tableau de bord peut être implémenté à l’aide d’un portail ou à l’aide de l'outil de reporting qu’utilise déjà l’entreprise.
Bien qu'un plan d'action de qualité des données soit impératif pour toutes les entreprises, cette approche est plus facile à mettre en œuvre dans les entreprises qui commencent à mettre en place leur entrepôt de données. En abordant très tôt les problèmes de qualité des données, les actions importantes nécessaires au succès sont plus faciles à organiser que lorsqu’il faut revenir sur des réalisations déjà mises en production. Il convient aussi dans le cadre du système d’information décisionnel, d’industrialiser le processus technique des contrôles et des rejets, et donc de mettre en place un outil générique pour les contrôles et les rapprochements.
Enfin, la qualité des données n’étant pas qu’une problématique technique, et comme elle touche avant tout les utilisateurs métiers de l’entreprise, il faut impérativement responsabiliser les propriétaires des sources et faciliter le processus de validation fonctionnelle des données. Pour cela il convient d’organiser une structure de gouvernance viable, en particulier de définir des gestionnaires de données.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
Cap sur la qualité des données
Maîtriser la qualité des données : une tâche pour Sisyphe ?
Impact de la qualité des données sur les résultats des compagnies d’assurances
Rédigé par Michel Bruley le Samedi 1 Mai 2010 à 08:22
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Les risques invisibles de l'Intelligence Artificielle : quelles précautions à prendre ?
-
Comment les entreprises de services se préparent à la révolution de l’IA
-
Snowflake accélère sa plateforme avec de nouvelles capacités pour aider les entreprises à simplifier les données et l'intelligence artificielle
-
Snowflake accélère la mise en production d’une IA fiable pour les entreprises
-
Snowflake lance Snowflake Intelligence, la prochaine génération d'agents de données pour l'IA d'entreprise
-
Hitachi Vantara étend sa plateforme de stockage hybride avec le stockage d’objet, la mémoire flash All-QLC et l’intégration avancée au cloud
-
Étude Riverbed : 95 % des dirigeants du retail confirment que l'IA est une priorité, mais seulement 40 % des retailers sont totalement préparés à l'IA en raison de lacunes en matière de données
-
MyReport x EBP, A Cegid Company : Un partenariat stratégique pour accompagner les TPE/PME
-
Géolocalisation : un enjeu de sécurité et de rentabilité des sites industriels pour 90% des professionnels du secteur
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques