Les postes d’analystes de données se multiplient dans les entreprises, dans toutes les grandes fonctions, du fait de l’importance croissante accordée aux approches quantitatives pour éclairer les décisions. L’apport de ces analystes aux processus de décision est généralement apprécié mais il convient cependant de prendre quelques précautions.
L’analyse de données quantitatives n’est pas toujours un exercice facile et de plus souvent nécessite des temps d’apprentissages. Une première erreur ici à ne pas commettre, est d’engager un débutant. Il faut en fait beaucoup de compétences pour appréhender les nuances de la réalité des affaires, et les juniors n’évitent pas toujours les pièges des questions secondaires et perdent souvent la trace de l’essentiel des objectifs qui leur ont été assignés.
Si les compétences statistiques sont nécessaires, le sens des affaires est encore plus important, l’une des clés étant de savoir poser les bonnes questions et d’établir un vrai dialogue avec les responsables métiers. Il ne s’agit pas seulement d’être perspicace mais d’être conséquent et d’anticiper les impacts notamment politiques. Quand des éléments sont trouvés, il faut savoir les présenter et les analystes doivent être aussi sélectionnés sur leurs capacités à communiquer.
Si certaines séries d’analyses peuvent être réalisées rapidement, l’interprétation des résultats par les responsables métier est souvent un processus lent et non linéaire. Il faut donc laisser du temps aux métiers pour répondre et l’analyste doit s’adapter à la vitesse de travail, de réflexion de ses interlocuteurs.
L'analyse des données peut être comme un parcours dans un labyrinthe, quand on arrive dans une impasse il faut revenir en arrière et recommencer. De plus souvent les résultats ne sont pas suffisamment contrastés pour permettre de réaliser des actions percutantes et donc le processus d’analyse se révèle improductif. Si les analystes sont habitués à ce type de difficulté, leurs interlocuteurs peuvent en être perturbés.
Il est probablement difficile de trouver des analystes expérimentés mais c’est absolument indispensable pour réellement tirer profit de son système d’information décisionnel. Pour aller plus loin sur ce dernier thème, vous pouvez consulter mon article sur la constitution d’un centre de compétence BI : cliquez ici
Rédigé par Michel Bruley le Lundi 8 Août 2011 à 08:42
|
Permalien
|
{0}
Dans le domaine marketing afin de mieux comprendre les comportements et les attentes des consommateurs les entreprises réalisent des études de marché, qualitatives ou quantitatives. Les études qualitatives ne cherchent pas à établir une vérité, réalisées à partir d’entretien auprès de petits échantillons de personnes elles permettent de rechercher des idées nouvelles, d’élaborer des hypothèses ou de tester des orientations. Les études quantitatives qui sont quant à elles à la quête d’une vérité scientifique en cherchant à vérifier des hypothèses et mesurer des faits, n’atteignent pas toujours leurs objectifs du fait de la qualité des données disponibles et par-dessus tout du fait que le monde d’aujourd’hui est très complexe et chaotique.
Dans le domaine financier, la théorie voudrait par exemple que les analyses quantitatives permettent aux gestionnaires de gérer scientifiquement leurs investissements et d’ajuster régulièrement leurs actifs de portefeuille en prenant en compte le risque et la rentabilité attendue. Tout cela serait parfait s’il n’y avait pas de facteurs humains, de décisions prisent par des hommes dont les comportements sont sensés être rationnels mais qui ne le sont pas toujours, et qui donc mettent à mal tous les beaux modèles mathématiques.
Les données quantitatives sont des instruments essentiels d’argumentation et de légitimation, elles sont généralement préférées à tous les autres éléments qualitatifs pour étayer les raisonnements. Il existe un véritable mythe du quantitatif qui se résume dans l’idée selon laquelle une analyse quantitative au moyen de modèles mathématiques rend les conclusions qui en sont tirées absolument indiscutables. Tout le monde aujourd’hui réclame donc à la science des vérités, et les responsables veulent des discours faciles à prêcher. Or la réalité n’est pas si simple, par exemple la physique offre de beaux exemples de réussites des mathématiques appliquées, mais aussi de faillites des mathématisations trop simplistes et malheureusement, les vérités scientifiques sont d’autant plus rares que les phénomènes sont complexes.
Pour aller plus loin sur ce sujet vous pouvez consulter mes articles sur la problématique de l’analyse et de ses différentes dimensions (problème, méthode, analyse, données, information, décision, action) : cliquez ici
Les décisions stratégiques sont soit celles qui créent une irréversibilité pour l’ensemble de l’organisation, soit celles qui anticipent une évolution d’environnement susceptible de provoquer une telle irréversibilité. La conséquence d’une décision stratégique pour une entreprise est donc de déterminer fortement son avenir pour le long terme et d’avoir éventuellement des répercussions sur sa pérennité.
Compte tenu des enjeux, on suppose que les dirigeants prennent toutes les précautions possibles pour décider dans de bonnes conditions, pour éclairer leur décision par des analyses, des scénarios, des données chiffrées. Or lorsque les grands entrepreneurs évoquent leurs décisions stratégiques, ils parlent d’intuition, d’inspiration, de vision et jamais d’analyses chiffrées. Pourquoi ?
L’avenir ne s’appréhende pas facilement et ce n’est sans doute pas en faisant des comptes d’apothicaires sur des données historiques détaillées que l’on peut trouver des orientations de long terme. Cependant la réflexion stratégique peut-elle être dé corrélée du réel ? Ne doit-elle pas tenir comptes des ressources, notamment des compétences de l'entreprise, des menaces ou opportunités de son environnement ? Ne doit-elle pas aussi anticiper les réponses des concurrents qui peuvent éventuellement prendre les mêmes orientations ?
Les spécialistes disent que l’avenir résulte du hasard et de la volonté des acteurs, que tout n’est donc pas prédéterminé et prévisible. La stratégie doit être clairvoyante, innovatrice et un problème bien posé est presque résolu, mais le problème, c’est de poser le problème. Il n’y a pas de bonne réponse à une mauvaise question. Pour les spécialistes les questions fondamentales à se poser sont : Que peut-il advenir ? Que puis-je faire ? Que vais-je faire ? Comment le faire ? Mais avant tout : Qui suis-je ?
Pour aller plus loin vous pouvez consulter mes articles sur le thème de la Stratégie et de l’Intelligence Economique : cliquez ici
Pour optimiser la conduite des opérations il convient souvent de prendre des décisions sans délai dans le feu de l’action. La question alors est : comment permettre aux opérationnels de fonder leurs décisions sur une vue holistique des informations de l’activité de l’entreprise ? Pour cela faut-il augmenter les capacités de son PGI ou de son entrepôt de données ?
Par exemple les ventes croisées réalisées par le centre d’appels, la planification APS, l’optimisation des chargements, le suivi des colis, les devis à la demande etc. ..., relèvent-ils d’un support à la décision assumé par un PGI ou un entrepôt de données ? Si aucun de ces deux moyens n’est nativement en mesure d’assumer ce type de support, lequel des deux faut-il améliorer ? Faut-il augmenter la mémoire et les capacités historiques des PGI ou les relier à des entrepôts de données gérant des données suffisamment fraîches pour être en phase avec les activités opérationnelles ?
A votre avis quels systèmes faut-il améliorer : le PGI ou l’Entrepôt de données ?
Pour aller plus loin vous pouvez consulter mes articles sur l’usage des PGI pour supporter des services décisionnels : cliquez ici
Les données utiles aux entreprises pour maîtriser leurs activités et innover sont très nombreuses et très variées. Indépendamment de la quantité qui ne pose plus de problème de gestion à personne, elles sont aussi de qualité très différentes, par exemple : données reflétant les transactions commerciales, les flux financiers, données officielles du marché, données issues d’études et de sondages, données issues des sites web, des médias sociaux, etc.
Vouloir intégrer toutes les données citées ci-dessus dans un entrepôt d’entreprise centralisé et unique, est-ce pertinent ? Faut-il traiter avec les mêmes moyens et la même rigueur toutes les données de l’entreprise ? Peut-on mixer dans un même entrepôt des données de qualité très différentes ? Quelle confiance peut-on avoir dans les résultats d’un système qui gère des données dont la qualité est très variable ?
A votre avis les utilisateurs sont-ils confiant dans la qualité des données de leur système d’information décisionnel ?
Ci-dessous un ensemble d’articles qui aborde la problématique de la qualité des données des systèmes décisionnels : cliquez ici
La réalité est faite de nuances, à vouloir tout normaliser, homogénéiser, la représentation que nous en construisons, dans les entrepôts de données d’entreprise centralisés cherchant à répondre à tous les besoins décisionnels, n’est-elle pas une caricature ?
L'uniformité simplifie mais peut-elle éclairer la complexité des choses et créer un environnement favorable à la créativité et à l’innovation ?
La complexité et la lenteur de l’intégration des données dans un entrepôt d’entreprise unique est-elle compatible avec le rythme des affaires d’aujourd’hui ?
L’entrepôt de données d’entreprise n’est-il pas un concept du passé qui n’a jamais été réellement mis en œuvre ?
Connaissez-vous une organisation qui dispose d’un entrepôt de données d’entreprise ?
Ci-dessous un ensemble d’articles qui aborde le thème de l’impasse où conduisent les systèmes décisionnels hétérogènes : cliquez ici
L'uniformité simplifie mais peut-elle éclairer la complexité des choses et créer un environnement favorable à la créativité et à l’innovation ?
La complexité et la lenteur de l’intégration des données dans un entrepôt d’entreprise unique est-elle compatible avec le rythme des affaires d’aujourd’hui ?
L’entrepôt de données d’entreprise n’est-il pas un concept du passé qui n’a jamais été réellement mis en œuvre ?
Connaissez-vous une organisation qui dispose d’un entrepôt de données d’entreprise ?
Ci-dessous un ensemble d’articles qui aborde le thème de l’impasse où conduisent les systèmes décisionnels hétérogènes : cliquez ici
Les responsables métiers ont-ils un si grand intérêt à ressasser des données détaillées qu’ils ont déjà analysées au jour le jour grâce aux rapports fournis par leur ERP ?
Vouloir fonder ses études et ses réflexions stratégiques sur une analyse des transactions détaillées ne compliquent-ils pas les processus ?
Ce manque d’intérêt n’est-il pas renforcer par le fait que les marchés, sur lesquels les entreprises se concurrencent, sont en perpétuelle évolution, que les organisations et les structures sont en constant changement ?
A propos, considérez-vous que pour alimenter la réflexion stratégique il faut un entrepôt de données détaillées ?
Ci-dessous un ensemble d’articles regroupés sous le titre : Gérer des données historiques détaillées, une solution ou une pollution ? : Cliquez ici
Les entrepôts de données qui ne stockent que les données historiques qui ont été générées par les systèmes internes de traitement des transactions peuvent-ils suffire aux entreprises pour faire des choix stratégiques ?
Les données représentatives des activités d’une entreprise ne sont-elles pas qu’une petite partie de l'univers des données nécessaires pour comprendre les marchés (commerciaux, financiers, emplois, ...) dans lesquels les entreprises sont engagées ?
Avez-vous déjà vu des entrepôts de données qui intègrent d’autres données que celles issues des systèmes qui gèrent les transactions de l’entreprise ?
Ci-joint un ensemble d’articles sur le thème de l’activation de l’intelligence dans l’entreprise : cliquez ici
Les données représentatives des activités d’une entreprise ne sont-elles pas qu’une petite partie de l'univers des données nécessaires pour comprendre les marchés (commerciaux, financiers, emplois, ...) dans lesquels les entreprises sont engagées ?
Avez-vous déjà vu des entrepôts de données qui intègrent d’autres données que celles issues des systèmes qui gèrent les transactions de l’entreprise ?
Ci-joint un ensemble d’articles sur le thème de l’activation de l’intelligence dans l’entreprise : cliquez ici
Les infocentres ont été à l’origine créés pour répondre aux limites des systèmes informatiques de l’époque, en particulier à l’impossibilité de faire assumer par un même système, sans dégradation des temps de réponse, des activités opérationnelles (OLTP) et des activités de comptages ou d’analyses sur des ensembles conséquents de données.
La séparation des systèmes opérationnels et décisionnels reste encore aujourd’hui d’actualité, mais le sera-t-elle toujours demain ? Les systèmes Exadata d’Oracle, le projet Hana de SAP n’ont-ils pas vocation à intégrer tous les systèmes sur une même plateforme ? Ces nouveaux systèmes vont-ils réellement pouvoir répondre à tous les besoins décisionnels des entreprises ?
A votre avis, dans dix ans créera-t-on encore des systèmes décisionnels séparés des systèmes opérationnels ?
Merci de répondre par oui ou non à cette dernière question via le lien ci-dessous :
Cliquez ici
La séparation des systèmes opérationnels et décisionnels reste encore aujourd’hui d’actualité, mais le sera-t-elle toujours demain ? Les systèmes Exadata d’Oracle, le projet Hana de SAP n’ont-ils pas vocation à intégrer tous les systèmes sur une même plateforme ? Ces nouveaux systèmes vont-ils réellement pouvoir répondre à tous les besoins décisionnels des entreprises ?
A votre avis, dans dix ans créera-t-on encore des systèmes décisionnels séparés des systèmes opérationnels ?
Merci de répondre par oui ou non à cette dernière question via le lien ci-dessous :
Cliquez ici
Depuis plusieurs années j’ai publié des articles au sujet des systèmes d’information décisionnels. Ces articles ont été écrits au fil de l’eau sans plan d’ensemble préétabli.
Pour rédiger ces textes mes sources d’inspiration ont été très variées : développement d’idées clés du monde du décisionnel, réponses ou compléments à des articles de collègues ou de concurrents, synthèses de notes de lecture, de conférences, d’événements auxquels j’ai participés ou que j’ai organisés, en particulier des déjeuners débats.
Le matériel accumulé finalement est très varié tant au niveau des thèmes que de la forme, mais j’ai pu sélectionner environ 150 textes, les homogénéiser et les ventiler dans les 5 grands chapitres ci-dessous :
Système d’Information Décisionnel (SID) – 25 textes structurés en 4 sous chapitres :
SID à quoi cela sert-il ? – 19 textes structurés en 3 sous chapitres :
SID et fonction Marketing – 38 textes structurés en 7 sous chapitres :
SID et diverses fonctions – 26 textes structurés en 7 sous chapitres :
Management du SID – 43 textes structurés en 9 sous chapitres :
Pour rédiger ces textes mes sources d’inspiration ont été très variées : développement d’idées clés du monde du décisionnel, réponses ou compléments à des articles de collègues ou de concurrents, synthèses de notes de lecture, de conférences, d’événements auxquels j’ai participés ou que j’ai organisés, en particulier des déjeuners débats.
Le matériel accumulé finalement est très varié tant au niveau des thèmes que de la forme, mais j’ai pu sélectionner environ 150 textes, les homogénéiser et les ventiler dans les 5 grands chapitres ci-dessous :
Système d’Information Décisionnel (SID) – 25 textes structurés en 4 sous chapitres :
SID à quoi cela sert-il ? – 19 textes structurés en 3 sous chapitres :
SID et fonction Marketing – 38 textes structurés en 7 sous chapitres :
SID et diverses fonctions – 26 textes structurés en 7 sous chapitres :
Management du SID – 43 textes structurés en 9 sous chapitres :
> A LIRE EN CE MOMENT SUR DECIDEO
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
-
La révolution des élites : quand l'IA redistribue le pouvoir
-
Informatica apporte sa contribution aux mégatendances de Microsoft Azure (IA générative, Microsoft Fabric et format en tables de données ouvertes) avec de nouvelles fonctionnalités
-
Dell Technologies présente les dernières innovations de Dell AI Factory pour propulser l’IA en entreprise
-
Eviden va tripler la capacité de calcul de la Finlande avec un nouveau supercalculateur d’IA
-
e-Attestations devient Aprovall
-
Neo4j dépasse les 200 millions de dollars de chiffre d’affaires et accélère son leadership dans le domaine de la GenAI grâce à sa technologie de graphes
-
Precisely nommé leader dans le rapport 2024 d’IDC MarketScape : Worldwide Data Intelligence Platform Software
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques