Ces dernières années, les entreprises françaises ont travaillé à l’élaboration d’une stratégie d’analytique permettant de transformer leurs données en enseignements de valeur. Toutefois, il semblerait que la mise en pratique de cette stratégie représente encore un défi pour une majorité d’entre elles, comme le démontre le rapport « Les données : Le nouvel or bleu. La nécessité d’investir dans des pipelines de données et d’analyse » mené conjointement par Qlik et IDC.
Un défi dès le début du pipeline de données
Selon ce rapport, 32 % des entreprises reconnaissent qu’il est difficile pour elles d’identifier les sources de données qui sont potentiellement utiles et pour 29 % d’entre elles, cette tâche est même très difficile. Parmi les obstacles rencontrés pour cette identification, ces entreprises citent l’évaluation du ROI (37 %), l’investissement dans la technologie (28 %) et l’identification de ressources de valeur (21 %).
« Les entreprises devraient porter une importance toute particulière aux sources de données car si elles ont encore des difficultés à identifier celles qui sont utiles à l’analyse, c’est l’ensemble de la chaîne analytique qui en est impactée. » déclare Hervé Chapron, Senior Director EMEA System Integrators Alliances, Qlik. « Une erreur dès le début du pipeline de données peut conduire à des analyses erronées qui entraineront une mauvaise prise de décision pouvant avoir des répercussions sur les activités de l’entreprise. »
La qualité des données au cœur de ce défi
La principale raison qui explique pourquoi les projets analytiques n’ont pas réussi à atteindre leurs objectifs est, pour 35 % des entreprises, lié à la qualité des données qui ne serait pas assez bonne. Arrivent ensuite en 2ème et 3ème position un défaut dans l'analyse, puis les problèmes liés à l'accessibilité des données, à la sécurité et aux contrôles de conformité.
Toutefois, toujours selon le rapport de Qlik et d’IDC, cette question de qualité des données n’arrive qu’en troisième place des domaines les plus critiques à améliorer pour réussir des projets d’analytique, ex aequo avec une utilisation étendue de l’Intelligence Artificielle et du Machine Learning parmi les collaborateurs (40 %). Il semblerait que les entreprises préfèrent améliorer dans un premier temps la quantité des données disponibles pour l’analyse (47 %) puis la formation des travailleurs qualifiés (41 %) avant de s’attaquer aux enjeux de qualité.
« Ces trois domaines sont critiques pour mener à bien des projets d’analytique et les entreprises doivent investir dans chacun d’entre eux au même niveau. C’est à cette condition seulement qu’ils pourront atteindre un bon score Data-to-insights (D2I)[1], qui permet aux entreprises de s’assurer que leur pipeline de données est solide et que l’information est collectée, assemblée, transformée et analysée avec précision, en vue de permettre une meilleure prise de décision, d’accélérer la création de valeur et ainsi de tirer pleinement profit de l’Intelligence Active. » conclut Hervé Chapron.
Méthodologie de l’enquête
En février et mars 2020, IDC a réalisé une enquête auprès de responsables informatiques et opérationnels chargés de la gestion et de l’analyse des données au sein de leurs entreprises. Un questionnaire web a été soumis à 1 200 entreprises dans 11 pays à travers le monde : Allemagne, Australie, Brésil, Canada, Chine, Etats-Unis, France, Inde, Japon, Royaume-Uni, Singapour. Les participants étaient des directeurs, et des décisionnaires au sein de l’entreprise. Les participants représentaient des entreprises de tailles variables mais comptant toutes au moins 1 000 salariés au niveau mondial. Ces entreprises appartiennent à divers secteurs : éducation, finance, administration, santé, industrie manufacturière, commerce de détail ou de gros, transport, télécommunications, services collectifs.
[1] www.D2I-Score.com est un outil d’évaluation hébergé par IDC qui permet à toutes les entreprises d’identifier les points forts et faibles dans leur pipeline de données.
Un défi dès le début du pipeline de données
Selon ce rapport, 32 % des entreprises reconnaissent qu’il est difficile pour elles d’identifier les sources de données qui sont potentiellement utiles et pour 29 % d’entre elles, cette tâche est même très difficile. Parmi les obstacles rencontrés pour cette identification, ces entreprises citent l’évaluation du ROI (37 %), l’investissement dans la technologie (28 %) et l’identification de ressources de valeur (21 %).
« Les entreprises devraient porter une importance toute particulière aux sources de données car si elles ont encore des difficultés à identifier celles qui sont utiles à l’analyse, c’est l’ensemble de la chaîne analytique qui en est impactée. » déclare Hervé Chapron, Senior Director EMEA System Integrators Alliances, Qlik. « Une erreur dès le début du pipeline de données peut conduire à des analyses erronées qui entraineront une mauvaise prise de décision pouvant avoir des répercussions sur les activités de l’entreprise. »
La qualité des données au cœur de ce défi
La principale raison qui explique pourquoi les projets analytiques n’ont pas réussi à atteindre leurs objectifs est, pour 35 % des entreprises, lié à la qualité des données qui ne serait pas assez bonne. Arrivent ensuite en 2ème et 3ème position un défaut dans l'analyse, puis les problèmes liés à l'accessibilité des données, à la sécurité et aux contrôles de conformité.
Toutefois, toujours selon le rapport de Qlik et d’IDC, cette question de qualité des données n’arrive qu’en troisième place des domaines les plus critiques à améliorer pour réussir des projets d’analytique, ex aequo avec une utilisation étendue de l’Intelligence Artificielle et du Machine Learning parmi les collaborateurs (40 %). Il semblerait que les entreprises préfèrent améliorer dans un premier temps la quantité des données disponibles pour l’analyse (47 %) puis la formation des travailleurs qualifiés (41 %) avant de s’attaquer aux enjeux de qualité.
« Ces trois domaines sont critiques pour mener à bien des projets d’analytique et les entreprises doivent investir dans chacun d’entre eux au même niveau. C’est à cette condition seulement qu’ils pourront atteindre un bon score Data-to-insights (D2I)[1], qui permet aux entreprises de s’assurer que leur pipeline de données est solide et que l’information est collectée, assemblée, transformée et analysée avec précision, en vue de permettre une meilleure prise de décision, d’accélérer la création de valeur et ainsi de tirer pleinement profit de l’Intelligence Active. » conclut Hervé Chapron.
Méthodologie de l’enquête
En février et mars 2020, IDC a réalisé une enquête auprès de responsables informatiques et opérationnels chargés de la gestion et de l’analyse des données au sein de leurs entreprises. Un questionnaire web a été soumis à 1 200 entreprises dans 11 pays à travers le monde : Allemagne, Australie, Brésil, Canada, Chine, Etats-Unis, France, Inde, Japon, Royaume-Uni, Singapour. Les participants étaient des directeurs, et des décisionnaires au sein de l’entreprise. Les participants représentaient des entreprises de tailles variables mais comptant toutes au moins 1 000 salariés au niveau mondial. Ces entreprises appartiennent à divers secteurs : éducation, finance, administration, santé, industrie manufacturière, commerce de détail ou de gros, transport, télécommunications, services collectifs.
[1] www.D2I-Score.com est un outil d’évaluation hébergé par IDC qui permet à toutes les entreprises d’identifier les points forts et faibles dans leur pipeline de données.
Autres articles
-
Qlik améliore l’intégration avec SAP, Databricks et Snowflake et favorise la création de valeur grâce à l’IA
-
Qlik lève les obstacles à la migration vers le cloud et ouvre la voie à une adoption transparente de l’IA dans tous les secteurs
-
Une entreprise française sur deux réduit ses investissements dans l'IA par manque de confiance
-
La technologie de Qlik favorise l’obtention de résultats plus rapides et en temps réel pour GenWizard d'Accenture
-
Precisely nommé leader dans le rapport 2024 d’IDC MarketScape : Worldwide Data Intelligence Platform Software