Créer son blog Recommander ce blog Avertir le modérateur


Aujourd’hui dans les entreprises on utilise beaucoup de modèles qui permettent de formaliser une représentation simplifiée de l’environnement et des activités. Ces modèles créent pour les collaborateurs des cadres communs de référence, ils permettent de structurer les raisonnements sur les situations existantes, sur les enjeux (financiers, humains, techniques) et sur les scénarios du futur. In fine tout cela aide à la communication des expériences, des réflexions de tous et crée ainsi une situation favorable à la prise des décisions.

Cependant il ne faut pas confondre solution analytique d’un problème et modèle numérique. La première est fondée sur une fonction mathématique connue qui couvre parfaitement le problème, alors que le modèle numérique est une approximation à l’aide de calcul de la solution réelle dont on n’a pas de description mathématique rigoureuse.

Un modèle est toujours une interprétation de la réalité qui est construite en fonction d’un objectif qui détermine le choix des paramètres et privilégie un point de vue. Un modèle n’est donc jamais totalement représentatif de la réalité. Lorsque l’on veut obtenir une représentation de données historiques, on construit un modèle descriptif qui permet d’intégrer au mieux la masse des informations ... disponibles. Lorsque l’on veut anticiper les événements, estimer des potentiels, on construit un modèle prédictif pour lequel on a sélectionné des variables dites explicatives pour déterminer les variables inconnues recherchées.

Les principales exigences de qualité d’un modèle sont qu’il couvre bien le champ du problème concerné, qu’il permette d’obtenir le résultat recherché et tout cela selon un processus maîtrisé. L’exigence importante complémentaire est la durée de vie d’un modèle. En effet, construire un modèle nécessite généralement un investissement conséquent que l’on cherche à amortir par des usages multiples. Mais la réalité est complexe et évolutive, les modèles ont donc régulièrement besoin d’être actualisés pour palier leur dérive naturelle dans le temps.

Pour aller plus loin, vous pouvez consulter mes articles sur le thème des approches analytiques de pointe, data mining ou fouille de données : cliquez ici

Rédigé par Michel Bruley le Lundi 22 Août 2011 à 08:34 | Permalien | Commentaires {0}

Les postes d’analystes de données se multiplient dans les entreprises, dans toutes les grandes fonctions, du fait de l’importance croissante accordée aux approches quantitatives pour éclairer les décisions. L’apport de ces analystes aux processus de décision est généralement apprécié mais il convient cependant de prendre quelques précautions.

L’analyse de données quantitatives n’est pas toujours un exercice facile et de plus souvent nécessite des temps d’apprentissages. Une première erreur ici à ne pas commettre, est d’engager un débutant. Il faut en fait beaucoup de compétences pour appréhender les nuances de la réalité des affaires, et les juniors n’évitent pas toujours les pièges des questions secondaires et perdent souvent la trace de l’essentiel des objectifs qui leur ont été assignés.

Si les compétences statistiques sont nécessaires, le sens des affaires est encore plus important, l’une des clés étant de savoir poser les bonnes questions et d’établir un vrai dialogue avec les responsables métiers. Il ne s’agit pas seulement d’être perspicace mais d’être conséquent et d’anticiper les impacts notamment politiques. Quand des éléments sont trouvés, il faut savoir les présenter et les analystes doivent être aussi sélectionnés sur leurs capacités à communiquer.

Si certaines séries d’analyses peuvent être réalisées rapidement, l’interprétation des résultats par les responsables métier est souvent un processus lent et non linéaire. Il faut donc laisser du temps aux métiers pour répondre et l’analyste doit s’adapter à la vitesse de travail, de réflexion de ses interlocuteurs.

L'analyse des données peut être comme un parcours dans un labyrinthe, quand on arrive dans une impasse il faut revenir en arrière et recommencer. De plus souvent les résultats ne sont pas suffisamment contrastés pour permettre de réaliser des actions percutantes et donc le processus d’analyse se révèle improductif. Si les analystes sont habitués à ce type de difficulté, leurs interlocuteurs peuvent en être perturbés.

Il est probablement difficile de trouver des analystes expérimentés mais c’est absolument indispensable pour réellement tirer profit de son système d’information décisionnel. Pour aller plus loin sur ce dernier thème, vous pouvez consulter mon article sur la constitution d’un centre de compétence BI : cliquez ici

Rédigé par Michel Bruley le Lundi 8 Août 2011 à 08:42 | Permalien | Commentaires {0}

Dans le domaine marketing afin de mieux comprendre les comportements et les attentes des consommateurs les entreprises réalisent des études de marché, qualitatives ou quantitatives. Les études qualitatives ne cherchent pas à établir une vérité, réalisées à partir d’entretien auprès de petits échantillons de personnes elles permettent de rechercher des idées nouvelles, d’élaborer des hypothèses ou de tester des orientations. Les études quantitatives qui sont quant à elles à la quête d’une vérité scientifique en cherchant à vérifier des hypothèses et mesurer des faits, n’atteignent pas toujours leurs objectifs du fait de la qualité des données disponibles et par-dessus tout du fait que le monde d’aujourd’hui est très complexe et chaotique.

Dans le domaine financier, la théorie voudrait par exemple que les analyses quantitatives permettent aux gestionnaires de gérer scientifiquement leurs investissements et d’ajuster régulièrement leurs actifs de portefeuille en prenant en compte le risque et la rentabilité attendue. Tout cela serait parfait s’il n’y avait pas de facteurs humains, de décisions prisent par des hommes dont les comportements sont sensés être rationnels mais qui ne le sont pas toujours, et qui donc mettent à mal tous les beaux modèles mathématiques.

Les données quantitatives sont des instruments essentiels d’argumentation et de légitimation, elles sont généralement préférées à tous les autres éléments qualitatifs pour étayer les raisonnements. Il existe un véritable mythe du quantitatif qui se résume dans l’idée selon laquelle une analyse quantitative au moyen de modèles mathématiques rend les conclusions qui en sont tirées absolument indiscutables. Tout le monde aujourd’hui réclame donc à la science des vérités, et les responsables veulent des discours faciles à prêcher. Or la réalité n’est pas si simple, par exemple la physique offre de beaux exemples de réussites des mathématiques appliquées, mais aussi de faillites des mathématisations trop simplistes et malheureusement, les vérités scientifiques sont d’autant plus rares que les phénomènes sont complexes.

Pour aller plus loin sur ce sujet vous pouvez consulter mes articles sur la problématique de l’analyse et de ses différentes dimensions (problème, méthode, analyse, données, information, décision, action) : cliquez ici

Rédigé par Michel Bruley le Lundi 25 Juillet 2011 à 13:39 | Permalien | Commentaires {0}

Les décisions stratégiques sont soit celles qui créent une irréversibilité pour l’ensemble de l’organisation, soit celles qui anticipent une évolution d’environnement susceptible de provoquer une telle irréversibilité. La conséquence d’une décision stratégique pour une entreprise est donc de déterminer fortement son avenir pour le long terme et d’avoir éventuellement des répercussions sur sa pérennité.

Compte tenu des enjeux, on suppose que les dirigeants prennent toutes les précautions possibles pour décider dans de bonnes conditions, pour éclairer leur décision par des analyses, des scénarios, des données chiffrées. Or lorsque les grands entrepreneurs évoquent leurs décisions stratégiques, ils parlent d’intuition, d’inspiration, de vision et jamais d’analyses chiffrées. Pourquoi ?

L’avenir ne s’appréhende pas facilement et ce n’est sans doute pas en faisant des comptes d’apothicaires sur des données historiques détaillées que l’on peut trouver des orientations de long terme. Cependant la réflexion stratégique peut-elle être dé corrélée du réel ? Ne doit-elle pas tenir comptes des ressources, notamment des compétences de l'entreprise, des menaces ou opportunités de son environnement ? Ne doit-elle pas aussi anticiper les réponses des concurrents qui peuvent éventuellement prendre les mêmes orientations ?

Les spécialistes disent que l’avenir résulte du hasard et de la volonté des acteurs, que tout n’est donc pas prédéterminé et prévisible. La stratégie doit être clairvoyante, innovatrice et un problème bien posé est presque résolu, mais le problème, c’est de poser le problème. Il n’y a pas de bonne réponse à une mauvaise question. Pour les spécialistes les questions fondamentales à se poser sont : Que peut-il advenir ? Que puis-je faire ? Que vais-je faire ? Comment le faire ? Mais avant tout : Qui suis-je ?

Pour aller plus loin vous pouvez consulter mes articles sur le thème de la Stratégie et de l’Intelligence Economique : cliquez ici

Rédigé par Michel Bruley le Jeudi 16 Juin 2011 à 10:00 | Permalien | Commentaires {0}

Pour optimiser la conduite des opérations il convient souvent de prendre des décisions sans délai dans le feu de l’action. La question alors est : comment permettre aux opérationnels de fonder leurs décisions sur une vue holistique des informations de l’activité de l’entreprise ? Pour cela faut-il augmenter les capacités de son PGI ou de son entrepôt de données ?

Par exemple les ventes croisées réalisées par le centre d’appels, la planification APS, l’optimisation des chargements, le suivi des colis, les devis à la demande etc. ..., relèvent-ils d’un support à la décision assumé par un PGI ou un entrepôt de données ? Si aucun de ces deux moyens n’est nativement en mesure d’assumer ce type de support, lequel des deux faut-il améliorer ? Faut-il augmenter la mémoire et les capacités historiques des PGI ou les relier à des entrepôts de données gérant des données suffisamment fraîches pour être en phase avec les activités opérationnelles ?

A votre avis quels systèmes faut-il améliorer : le PGI ou l’Entrepôt de données ?

Pour aller plus loin vous pouvez consulter mes articles sur l’usage des PGI pour supporter des services décisionnels : cliquez ici

Rédigé par Michel Bruley le Mercredi 1 Juin 2011 à 08:52 | Permalien | Commentaires {0}

Les données utiles aux entreprises pour maîtriser leurs activités et innover sont très nombreuses et très variées. Indépendamment de la quantité qui ne pose plus de problème de gestion à personne, elles sont aussi de qualité très différentes, par exemple : données reflétant les transactions commerciales, les flux financiers, données officielles du marché, données issues d’études et de sondages, données issues des sites web, des médias sociaux, etc.

Vouloir intégrer toutes les données citées ci-dessus dans un entrepôt d’entreprise centralisé et unique, est-ce pertinent ? Faut-il traiter avec les mêmes moyens et la même rigueur toutes les données de l’entreprise ? Peut-on mixer dans un même entrepôt des données de qualité très différentes ? Quelle confiance peut-on avoir dans les résultats d’un système qui gère des données dont la qualité est très variable ?

A votre avis les utilisateurs sont-ils confiant dans la qualité des données de leur système d’information décisionnel ?

Ci-dessous un ensemble d’articles qui aborde la problématique de la qualité des données des systèmes décisionnels : cliquez ici

Rédigé par Michel Bruley le Lundi 16 Mai 2011 à 11:53 | Permalien | Commentaires {0}
La réalité est faite de nuances, à vouloir tout normaliser, homogénéiser, la représentation que nous en construisons, dans les entrepôts de données d’entreprise centralisés cherchant à répondre à tous les besoins décisionnels, n’est-elle pas une caricature ?

L'uniformité simplifie mais peut-elle éclairer la complexité des choses et créer un environnement favorable à la créativité et à l’innovation ?

La complexité et la lenteur de l’intégration des données dans un entrepôt d’entreprise unique est-elle compatible avec le rythme des affaires d’aujourd’hui ?

L’entrepôt de données d’entreprise n’est-il pas un concept du passé qui n’a jamais été réellement mis en œuvre ?

Connaissez-vous une organisation qui dispose d’un entrepôt de données d’entreprise ?

Ci-dessous un ensemble d’articles qui aborde le thème de l’impasse où conduisent les systèmes décisionnels hétérogènes : cliquez ici

Rédigé par Michel Bruley le Lundi 2 Mai 2011 à 08:12 | Permalien | Commentaires {0}

Les responsables métiers ont-ils un si grand intérêt à ressasser des données détaillées qu’ils ont déjà analysées au jour le jour grâce aux rapports fournis par leur ERP ?

Vouloir fonder ses études et ses réflexions stratégiques sur une analyse des transactions détaillées ne compliquent-ils pas les processus ?

Ce manque d’intérêt n’est-il pas renforcer par le fait que les marchés, sur lesquels les entreprises se concurrencent, sont en perpétuelle évolution, que les organisations et les structures sont en constant changement ?

A propos, considérez-vous que pour alimenter la réflexion stratégique il faut un entrepôt de données détaillées ?

Ci-dessous un ensemble d’articles regroupés sous le titre : Gérer des données historiques détaillées, une solution ou une pollution ? : Cliquez ici

Rédigé par Michel Bruley le Vendredi 15 Avril 2011 à 09:25 | Permalien | Commentaires {1}
Les entrepôts de données qui ne stockent que les données historiques qui ont été générées par les systèmes internes de traitement des transactions peuvent-ils suffire aux entreprises pour faire des choix stratégiques ?

Les données représentatives des activités d’une entreprise ne sont-elles pas qu’une petite partie de l'univers des données nécessaires pour comprendre les marchés (commerciaux, financiers, emplois, ...) dans lesquels les entreprises sont engagées ?

Avez-vous déjà vu des entrepôts de données qui intègrent d’autres données que celles issues des systèmes qui gèrent les transactions de l’entreprise ?

Ci-joint un ensemble d’articles sur le thème de l’activation de l’intelligence dans l’entreprise : cliquez ici

Rédigé par Michel Bruley le Vendredi 1 Avril 2011 à 12:04 | Permalien | Commentaires {1}
Les infocentres ont été à l’origine créés pour répondre aux limites des systèmes informatiques de l’époque, en particulier à l’impossibilité de faire assumer par un même système, sans dégradation des temps de réponse, des activités opérationnelles (OLTP) et des activités de comptages ou d’analyses sur des ensembles conséquents de données.

La séparation des systèmes opérationnels et décisionnels reste encore aujourd’hui d’actualité, mais le sera-t-elle toujours demain ? Les systèmes Exadata d’Oracle, le projet Hana de SAP n’ont-ils pas vocation à intégrer tous les systèmes sur une même plateforme ? Ces nouveaux systèmes vont-ils réellement pouvoir répondre à tous les besoins décisionnels des entreprises ?

A votre avis, dans dix ans créera-t-on encore des systèmes décisionnels séparés des systèmes opérationnels ?

Merci de répondre par oui ou non à cette dernière question via le lien ci-dessous :

Cliquez ici
Rédigé par Michel Bruley le Mardi 1 Mars 2011 à 09:08 | Permalien | Commentaires {0}
1 ... « 15 16 17 18 19 20 21


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile


Rubriques

Rubriques