Xavier LANDRY, Manager IT Consulting chez Logica
Pour autant, les raisons qui conduisent à la non qualité sont réellement objectives et connues :
Problèmes techniques liés à l’obsolescence des systèmes d’informations (erreurs de programmation historiques, départ des sachants eux aussi historiques …),
Problèmes métiers et humains (erreurs de saisies par les employés, absence de référentiel unique ou plus globalement d’un langage commun)
Nouvelles approches multicanales ou d’échanges de données B2B entre partenaires qui induisent des données externes elles-mêmes potentiellement sources d’erreur.
Pour rejoindre ce que disaient Jean-Michel FRANCO récemment, l’année 2010 sera certes l’année du MDM mais complétons son propos, elle sera surtout l’année du DQM (Data Quality Management).
Les enjeux métiers des entreprises sont pléthores pour obtenir améliorer le service à leurs clients, répondre aux contraintes réglementaires (Solvency 2 pour ne citer qu’elle), améliorer les prises de décisions et l’efficacité opérationnelle ou encore moderniser les systèmes et réduire les fameux coûts de possessions (TCO) … Tous ces enjeux ont un point en commun : des initiatives IT visant à transformer la donnée en information. Que ce soient des projets d’operational BI (fini la Business Intelligence d’il y a 20 ans), de MDM, de consolidation ou migration applicative voire d’échanges de données en B2B, les traitements d’extraction, de transport et de transformation (le fameux ETL) sont incontournables et aujourd’hui nécessité est faite d’adjoindre la qualité pour tendre vers l’ETQL !
La stratégie des éditeurs en est le parfait reflet, analysons les récents Gartner sur les outils de qualité de données et les plateformes d’intégration de données pour constater que les leaders de ces quadrants sont identiques : IBM avec son offre IBM InfoSphere incluant DataStage, Information Analyzer et QualityStage, Informatica avec son offre Informatica 9 centrée autour de PowerCenter Informatica Data Explorer et Informatica Data Quality, SAS et son attendu Unity visant à consolider DataFlux et SAS Studio, Talend avec sa suite Talend Integration Suite Data Quality comprenant Talend Open Profiler et Talend Data Quality autour de l’ETL ou bien encore SAP Business Objects avec BO data Insight et BO Data Quality.
Aussi, si une société dispose aujourd’hui d’une solution d’intégration de données dite leader, est-il pertinent qu’elle choisisse une solution de qualité d’un autre éditeur ? La réponse semble simplissime et la tentation de dire non est grande voire indiscutable tant la roadmap des éditeurs tend vers la qualité de données comme un service des plateformes d’intégration de données.
Mais par où commencer une initiative de qualité de données ? Définir l’initiative globale, se fixer des objectifs quantifiés d’amélioration, gérer la gouvernance autour de l’administration des données et enfin … profiler les données ….
Problèmes techniques liés à l’obsolescence des systèmes d’informations (erreurs de programmation historiques, départ des sachants eux aussi historiques …),
Problèmes métiers et humains (erreurs de saisies par les employés, absence de référentiel unique ou plus globalement d’un langage commun)
Nouvelles approches multicanales ou d’échanges de données B2B entre partenaires qui induisent des données externes elles-mêmes potentiellement sources d’erreur.
Pour rejoindre ce que disaient Jean-Michel FRANCO récemment, l’année 2010 sera certes l’année du MDM mais complétons son propos, elle sera surtout l’année du DQM (Data Quality Management).
Les enjeux métiers des entreprises sont pléthores pour obtenir améliorer le service à leurs clients, répondre aux contraintes réglementaires (Solvency 2 pour ne citer qu’elle), améliorer les prises de décisions et l’efficacité opérationnelle ou encore moderniser les systèmes et réduire les fameux coûts de possessions (TCO) … Tous ces enjeux ont un point en commun : des initiatives IT visant à transformer la donnée en information. Que ce soient des projets d’operational BI (fini la Business Intelligence d’il y a 20 ans), de MDM, de consolidation ou migration applicative voire d’échanges de données en B2B, les traitements d’extraction, de transport et de transformation (le fameux ETL) sont incontournables et aujourd’hui nécessité est faite d’adjoindre la qualité pour tendre vers l’ETQL !
La stratégie des éditeurs en est le parfait reflet, analysons les récents Gartner sur les outils de qualité de données et les plateformes d’intégration de données pour constater que les leaders de ces quadrants sont identiques : IBM avec son offre IBM InfoSphere incluant DataStage, Information Analyzer et QualityStage, Informatica avec son offre Informatica 9 centrée autour de PowerCenter Informatica Data Explorer et Informatica Data Quality, SAS et son attendu Unity visant à consolider DataFlux et SAS Studio, Talend avec sa suite Talend Integration Suite Data Quality comprenant Talend Open Profiler et Talend Data Quality autour de l’ETL ou bien encore SAP Business Objects avec BO data Insight et BO Data Quality.
Aussi, si une société dispose aujourd’hui d’une solution d’intégration de données dite leader, est-il pertinent qu’elle choisisse une solution de qualité d’un autre éditeur ? La réponse semble simplissime et la tentation de dire non est grande voire indiscutable tant la roadmap des éditeurs tend vers la qualité de données comme un service des plateformes d’intégration de données.
Mais par où commencer une initiative de qualité de données ? Définir l’initiative globale, se fixer des objectifs quantifiés d’amélioration, gérer la gouvernance autour de l’administration des données et enfin … profiler les données ….
Autres articles
-
Logica étend son partenariat avec Microsoft à la Business Intelligence
-
Logica France, numéro 1 du conseil IT et de l’externalisation dans l’étude PAC 2011 sur la Business Intelligence et le Data Management
-
La gouvernance du SID remis en question par la BI 2.0
-
Logica Business Consulting lance une offre de Master Data Management dans le Cloud en partenariat avec Orchestra Networks
-
Logica et QlikTech signent un accord international sur le marché de la Business Intelligence