3. La qualité des données
Animateurs principaux : Joy L. Medved (Paradata Consulting) / Daragh O Brien (Castlebridge Associates) / Sandy Georgas-Gait (McDonald) / Laura J. Sebastian-Coleman (OPTUM Insight)
Public : Enterprise Data Architect / Métiers / Data stewards
La qualité (outillée) des données n’est pas une initiative nouvelle : les années 1990 ont ainsi vu fleurir de nombreux éditeurs (certains ont disparu aujourd’hui, souvent par le jeu des rachats) pour aider la mise en œuvre de projets décisionnels et améliorer la qualité de l’information de pilotage, la qualité de l’information opérationnelle (base client ou marketing, support des processus aval du marketing ou du commercial) ou l’information analytique (base client ou marketing, support des processus amont du marketing ou du commercial). Pourquoi donc en reparler avec tant d’intérêt aujourd’hui ?
La première raison, évoquée ci-avant, semble tenir à la réglementation, en particulier aux exigences de qualité des données portées par certains cadres réglementaires cités plus haut. A cela s’ajoute le fait que bon nombre d’initiatives de qualité des données n’ont pas été inscrites dans le temps et ont laissé place à une régression au terme du projet. Enfin, il y a une conscience de plus en plus croissante des coûts de non qualité et de leurs impacts sur les processus opérationnels, les processus de pilotage et les risques induits.
Qu’est-ce qui doit alors changer ?
D’abord la perception de la qualité des données. En effet, il est indispensable de garder un esprit critique à l’égard des données car elles sont une représentation abstraite et déformée par la perception que l’on en a. Une donnée valide n’est pas forcément une donnée fidèle ou exacte. Pour prendre un exemple concret, prenons l’adresse d’un client d’entreprise ; elle peut être correctement formatée et existante mais pour autant le dit client n’y habiterait pas/plus. L’information est alors inexploitable dans une campagne marketing.
Ensuite la pérennité de l’initiative. En effet, une initiative de gestion de la qualité des données n’est pas une action ponctuelle. Elle doit s’inscrire dans le temps, comme un programme. Comme évoqué dans l’exemple précédent, un client peut changer d’adresse et l’organisation acquiert régulièrement de nouveaux clients, avec entre autres des adresses à valider. Dans des organisations, plusieurs systèmes sont encore utilisés pour répertorier les informations d’un client, adresses comprises. Celles-ci demandent à être identifiées, rapprochées et corrigées. C’est le travail au jour le jour de l’intendance des données (data stewardship). La gestion de la qualité des données ne saurait donc être une activité ponctuelle, au risque, dans l’intervalle, de diffuser dans le système d’information des éléments de non-qualité pouvant avoir des impacts non négligeables.
Enfin l’implication des métiers. En effet, la gestion de la qualité des données a souvent été menée par les équipes techniques et non par les métiers, qui ont la connaissance des données et sont donc à même d’en apprécier la qualité.
Toutefois, dans cette volonté d’implication des métiers, il faut garder à l’esprit la nature contextuelle de l’usage et donc de la qualité. Elle requiert l’identification de “data owners” (responsable de données) et l’implication de “data stewards” (intendants des données).
Le dernier enseignement concerne la communication : les réalisations, les bienfaits et les progrès doivent faire l’objet d’une communication pour aider les employés à rester motivés et assidus. Une communication effective doit permettre d’améliorer la compréhension, le partage et la qualité perçue par chacun.
Parmi les Business Cases présentés, on peut noter celui de Google, acteur incontournable de la publicité en ligne, entre autres. Google a décidé en 2012 de rendre sa plateforme PLA (Product Listing Ads) payante et d’en contrôler les données fournies, dans une formule dite “Pay to Play”. La raison principale évoquée d’un tel changement a été la mauvaise qualité des données saisies par les annonceurs (prix, couleur, description, image erronées) entraînant trop souvent des publicités trompeuses auprès des internautes, impactant de ce fait la campagne lancée et donc le service proposé. Une fois cette nouvelle politique mise en œuvre et malgré de vives critiques, la plate-forme a connu des retours spectaculaires (+176% de clic et +100% de taux de conversion) prouvant que la démarche de qualité avait du sens. Elle a permis à Google d'asseoir sa position dominante dans le secteur et de générer des gains substantiels.
Public : Enterprise Data Architect / Métiers / Data stewards
La qualité (outillée) des données n’est pas une initiative nouvelle : les années 1990 ont ainsi vu fleurir de nombreux éditeurs (certains ont disparu aujourd’hui, souvent par le jeu des rachats) pour aider la mise en œuvre de projets décisionnels et améliorer la qualité de l’information de pilotage, la qualité de l’information opérationnelle (base client ou marketing, support des processus aval du marketing ou du commercial) ou l’information analytique (base client ou marketing, support des processus amont du marketing ou du commercial). Pourquoi donc en reparler avec tant d’intérêt aujourd’hui ?
La première raison, évoquée ci-avant, semble tenir à la réglementation, en particulier aux exigences de qualité des données portées par certains cadres réglementaires cités plus haut. A cela s’ajoute le fait que bon nombre d’initiatives de qualité des données n’ont pas été inscrites dans le temps et ont laissé place à une régression au terme du projet. Enfin, il y a une conscience de plus en plus croissante des coûts de non qualité et de leurs impacts sur les processus opérationnels, les processus de pilotage et les risques induits.
Qu’est-ce qui doit alors changer ?
D’abord la perception de la qualité des données. En effet, il est indispensable de garder un esprit critique à l’égard des données car elles sont une représentation abstraite et déformée par la perception que l’on en a. Une donnée valide n’est pas forcément une donnée fidèle ou exacte. Pour prendre un exemple concret, prenons l’adresse d’un client d’entreprise ; elle peut être correctement formatée et existante mais pour autant le dit client n’y habiterait pas/plus. L’information est alors inexploitable dans une campagne marketing.
Ensuite la pérennité de l’initiative. En effet, une initiative de gestion de la qualité des données n’est pas une action ponctuelle. Elle doit s’inscrire dans le temps, comme un programme. Comme évoqué dans l’exemple précédent, un client peut changer d’adresse et l’organisation acquiert régulièrement de nouveaux clients, avec entre autres des adresses à valider. Dans des organisations, plusieurs systèmes sont encore utilisés pour répertorier les informations d’un client, adresses comprises. Celles-ci demandent à être identifiées, rapprochées et corrigées. C’est le travail au jour le jour de l’intendance des données (data stewardship). La gestion de la qualité des données ne saurait donc être une activité ponctuelle, au risque, dans l’intervalle, de diffuser dans le système d’information des éléments de non-qualité pouvant avoir des impacts non négligeables.
Enfin l’implication des métiers. En effet, la gestion de la qualité des données a souvent été menée par les équipes techniques et non par les métiers, qui ont la connaissance des données et sont donc à même d’en apprécier la qualité.
Toutefois, dans cette volonté d’implication des métiers, il faut garder à l’esprit la nature contextuelle de l’usage et donc de la qualité. Elle requiert l’identification de “data owners” (responsable de données) et l’implication de “data stewards” (intendants des données).
Le dernier enseignement concerne la communication : les réalisations, les bienfaits et les progrès doivent faire l’objet d’une communication pour aider les employés à rester motivés et assidus. Une communication effective doit permettre d’améliorer la compréhension, le partage et la qualité perçue par chacun.
Parmi les Business Cases présentés, on peut noter celui de Google, acteur incontournable de la publicité en ligne, entre autres. Google a décidé en 2012 de rendre sa plateforme PLA (Product Listing Ads) payante et d’en contrôler les données fournies, dans une formule dite “Pay to Play”. La raison principale évoquée d’un tel changement a été la mauvaise qualité des données saisies par les annonceurs (prix, couleur, description, image erronées) entraînant trop souvent des publicités trompeuses auprès des internautes, impactant de ce fait la campagne lancée et donc le service proposé. Une fois cette nouvelle politique mise en œuvre et malgré de vives critiques, la plate-forme a connu des retours spectaculaires (+176% de clic et +100% de taux de conversion) prouvant que la démarche de qualité avait du sens. Elle a permis à Google d'asseoir sa position dominante dans le secteur et de générer des gains substantiels.
Cette série d'articles a été rédigée par l'équipe de Pramana, cabinet de conseil français spécialisé en Transformation d’entreprise et Gestion de l’Information :
- Charles NGANDO BLACK, Directeur, CDMP (2014)
- Vincent GIVAUDAN, Manager, CDMP (2014)
- Mathieu CONTE-MAIORINO, Consultant, CDMP (2014)
- Charles NGANDO BLACK, Directeur, CDMP (2014)
- Vincent GIVAUDAN, Manager, CDMP (2014)
- Mathieu CONTE-MAIORINO, Consultant, CDMP (2014)
Autres articles
-
PwC France et Maghreb fait l’acquisition du cabinet de conseil Pramana et renforce son expertise en Data strategy
-
Conférence de Valérie Bécaert, directrice exécutive de l'IVADO (Institut pour la VAlorisation des DOnnées)
-
Création du chapitre français de Dama International
-
Compte-rendu de Enterprise Data World (4ème et dernière partie)
-
Compte-rendu de Enterprise Data World (2ème partie)