Créer son blog Recommander ce blog Avertir le modérateur

Un bon système d’information décisionnel permet de développer la capacité de réflexion et d’action de l’entreprise (décider avant le concurrent, décider en temps réel, tirer parti d’un avantage concurrentiel, réaliser des économies grâce à l’identification des bonnes méthodes, ...). Mais l’information n’existe pas en soit, c’est un « produit » élaboré par un processus de transformation itératif, interactif à partir de données élémentaires relatives aux différents acteurs et aux évènements qu’ils vivent. Par exemple les données clients et les événements gérés par de nombreux services (commercial, service client, facturation, réclamations, sav, ...).

Historiquement les premiers systèmes décisionnels ont été développés pour répondre aux besoins en information d’une organisation fonctionnelle en particulier (marketing, comptabilité, ventes, ...) ignorant les besoins des autres entités et s’adressant à un nombre limité d’utilisateurs. Mais ces systèmes qui gèraient des données dupliquées et redondantes, offraient de multiples vues de la réalité, de multiples perspectives fonctionnelles. Faute d’une intégration des données dans un modèle unique d’entreprise, chaque organisation élaborait l’information selon sa perception, il n’y avait pas de vue globale, pas de vérité d’entreprise. Cela cloisonnait la connaissance, contrariait la mise en place de processus transversaux et limitait la prise de décision au niveau global.

Les entrepôts de données qui sont aujourd’hui mis en place sont notamment conçus pour pallier aux inconvénients décrits ci-dessus. Ils gèrent des données identiques, partagées entre toutes les organisations, orientées par sujet ou par thème, qui ne sont plus cantonnées à une seule sphère fonctionnelle mais valent pour l’entreprise toute entière. Ils offrent une vue unique des données, une information plus complète, plus précise qui facilite d’autant la prise de décision.

Il s’agit donc d’organiser les données intéressantes dans des structures cohérentes, en éliminant les redondances de données inutiles, et en définissant des relations entre les structures de données qui ont des rapports entre elles. Dans une première phase du projet de développement de l’entrepôt de données, il convient de réaliser un modèle conceptuel de données (MCD), puis celui-ci est affiné en un modèle logique de données (MLD) qui est dépendant du système de gestion de base de données utilisés. Par exemple dans un SGBDR (Système de Gestion de Bases de Données Relationnelles), les données sont enregistrées dans des tableaux à deux dimensions (lignes et colonnes). Enfin le MLD est traduit en un modèle physique de données (MPD), c'est-à-dire écrit dans un langage de définition de données, généralement le SQL.

Pour aller plus loin sur le sujet vous utilement lire mes autres propos ci-dessous :

Comment modéliser un entrepôt de données pour satisfaire les utilisateurs ?

Modèle Logique de Données : ou comment fonder ses connaissances sans jargon.

Construire un entrepôt de données pour saisir des opportunités.

Modèles de données et opportunités BI

Rédigé par Michel Bruley le Lundi 1 Mars 2010 à 08:11 | Permalien | Commentaires {0}
La mise en place d’un entrepôt de données a toujours pour objectif d’améliorer la compétitivité, en facilitant l’optimisation du fonctionnement et l’innovation. Parmi les fonctions de l’entreprise, après la fonction financière c’est celle de la relation client qui a fait le plus l’objet d’investissements en systèmes d’aide à la décision. Cependant depuis quelques temps les entreprises manufacturières ne se contentent plus de bien intégrer les données clients pour alimenter leur CRM, mais s’intéressent aussi aux données relatives aux produits, de façon à pouvoir les suivre globalement à travers les domaines de la conception, des achats, des stocks, de la production, de la qualité, des ventes, des transports, des services, de la maintenance, etc.

Concrètement, elles cherchent à réaliser un entrepôt de données d’entreprise qui intègre les données concernant les produits principalement issues du PLM, du SCM, du CRM et du MRO, de façon à optimiser la prise en compte exhaustive des contraintes de production et de support dès la conception, de maîtriser la chaîne d’approvisionnement, de réduire les coûts et les cycles de production, d’améliorer la qualité, de réduire les stocks, d’augmenter la satisfaction clients, de maîtriser les coûts de garantie et les processus de rappel, etc.... Les enjeux sont colossaux et en maîtrisant sa complexité, l’entreprise peut espérer au-delà d’une excellence opérationnelle, être réactive face aux exigences du marché et être à même de réaliser des innovations de rupture.

La vision 360° des produits est une cible qui ne peut être atteinte rapidement, et au niveau de la trajectoire il convient de définir des étapes porteuses de résultats. Lorsque l’on regarde les expériences de certains utilisateurs de solutions Teradata, on constate qu’ils ont toujours commencé par chercher à résoudre un de leurs problématiques spécifiques, comme 3M (optimisation de la planification de la production), Ford (vision de la situation de plus de 2000 fournisseurs), Ping (accélération du traitement des commandes), TSMC (contrôle de la chaîne d’approvisionnement à travers une batterie de KPI), Vector SCM (optimisation des transports), Wesco (amélioration de la vision de la disponibilité des produits), Western Digital (réduction du temps de traitement des problèmes de qualité), Whirlpool (réduction des coûts de garantie).

Teradata a formalisé les principaux thèmes d’amélioration qu’une organisation peut espérer couvrir avec un entrepôt de données d’entreprise (voir les thèmes pour les entreprises manufacturières. Chacun des thèmes listés peut faire l’objet d’une étape intermédiaire dans le chemin qui mène à la cible de la vision 360° des clients et des produits.

Pour aller plus loin, vous pouvez utilement consulter mes autres articles ci-dessous :

Un entrepôt de données pour la fonction Achat

Système d’analyse de la qualité chez Daimler AG

PGI, entrepôt de données d’entreprise et gestion des garanties

De l’importance des données détaillées pour les opérations de maintenance

Pour un système unique d’aide aux décisions de MRO

Rédigé par Michel Bruley le Lundi 1 Février 2010 à 07:42 | Permalien | Commentaires {0}

Dans le contexte de globalisation d’aujourd’hui, les exigences en matière d’approvisionnement des grandes entreprises sont extrêmement élevées, au point que des sociétés spécialisées voient le jour comme Vector SCM, qui gère 12 000 sources d’approvisionnement, 1200 transporteurs, charge 8 millions de véhicules par an, dessert 12 500 points de livraison et permet à de nombreuses entreprises de remplir les exigences logistiques de leurs grands donneurs d’ordres.

L’optimisation des chaînes d’approvisionnement est un enjeu dans la recherche d’avantages concurrentiels. Par exemple dans le secteur de la distribution une entreprise comme Wal-Mart a en partie construit son succès sur la création d’une chaîne d’approvisionnement particulièrement remarquable, qui entre autre a su remplacer des stocks par de l’information : plus vite les magasins envoient des informations sur ce que les clients achètent, plus vite l’information peut être transmise aux fabricants et aux concepteurs, plus vite la chaîne d’approvisionnement peut réagir.

Mais la plupart du temps dans les entreprises, la chaîne d’approvisionnement souffre de cloisonnements, car l’intégration et la synchronisation des flux physiques, des flux d’informations et des flux financiers n’est pas optimale. Or la réduction des stocks et l’optimisation de la chaîne d’approvisionnement ne peuvent se concevoir sans une bonne gestion de l’information, mais au-delà des traditionnels systèmes opérationnels qui permettent d’automatiser les processus, il convient sans aucun doute de s’appuyer sur un système décisionnel adapté. Ce dernier doit être fondé sur un entrepôt de données qui a pour vocation d’intégrer toutes les données logistiques internes ou externes, et offrir à toutes les parties prenantes les visions historiques, opérationnelles, prévisionnelles ou de simulation dont elles ont besoin.

Le système décisionnel doit intégrer des données de toutes les applications opérationnelles concernées, à savoir de façon non limitative, des données de : CRM – Customer Relation Management, DP&F – Demand Planning and Forecasting, SRM – Supplier Relation Management, APS – Advanced Planning & Scheduling, ERP – Enterprise Resources Planning, TMS – Transportation Management System, WMS – Warehouse Management System, DCS – Distributed Controlled System, MES – Manufacturing Execution System, etc.

Pour aller plus loin sur ce sujet vous pouvez utilement lire mes articles ci-dessous :

Tableaux de bord logistique et entrepôt de données d’entreprise

Optimisation des approvisionnements & entrepôt de données

Un entrepôt de données pour améliorer la distribution des pièces détachées chez Ford

ERP & entrepôt de données d’entreprise pour les entreprises manufacturières

Dossier : Gérer votre chaîne d’approvisionnement

Rédigé par Michel Bruley le Vendredi 1 Janvier 2010 à 10:03 | Permalien | Commentaires {0}
L’analyse est un processus structuré de construction, traitement et production d’informations. L’information, est à la fois matière première et produit généré. La pertinence de l’analyse dépend en partie de la qualité et parfois de la quantité des informations prisent en compte. Mais par-dessus tout l’analyse nécessite une sérieuse dose de rigueur (démarche méthodique). Cependant il ne faut pas tomber dans un excès de rigueur, dans des analyses trop pointillistes interdisant une vue d’ensemble et amenant à ne pouvoir conclure, ou qu’avec des propositions précises mais très limitées, en refusant celles qui seraient globale mais imparfaitement vraies.

L’analyste ne doit pas se laisser submerger de données multiples, disparates, contradictoires parfois, et savoir identifier les informations cruciales, synthétiques, bien construites et suffisamment fiables. Cependant il faut avoir conscience que les données chiffrées et plus encore monétaires, même lorsqu’elles sont fausses avec précision - exemple comptabilité analytique avec critères de répartition obsolètes -, tendent à s’imposer aux données qualitatives, qui pourraient n’être qu’approximativement exactes. Les informations complètes, fines, certaines et rétrospectives sont généralement plus valorisées, que des informations partielles, agrégées, incertaines, tournées vers le futur.

Suivant leur (dé)formation d’origine, les analystes ont tendance à accorder trop de poids à certains facteurs. Les économistes privilégient les variables d’environnement au détriment de celles d’organisation ou de gestion. Les responsables des ressources humaines voient très systématiquement dans les jeux des acteurs, les blocages internes ou les qualifications des individus, les causes fondamentales des difficultés. Enfin les financiers cèdent régulièrement aux délices de l’analyse des flux de fonds, du bilan et du compte de résultat, pour y rechercher des déséquilibres qui ne font que traduire des dysfonctionnements stratégiques, organisationnels ou de gestion. Cependant, l’un des défis majeurs pour les analystes consiste à éviter les écueils dans les raisonnements : multiplication des perceptions, parcellisation des perceptions, éparpillement analytique, diversion-distraction et approfondissement du faux problème.

S’il doit se méfier de lui-même, l’analyste doit faire preuve de prudence à l’égard des personnes et des groupes avec lesquels il est en relation. L’analyste peut se laisser prendre en otage par une direction qui cherche plus à faire entériner son point de vue qu’à obtenir des conclusions neutres. L’analyse peut être un alibi, une caution morale pour légitimer certaines décisions douloureuses. La lucidité de l’analyste, son aptitude à découvrir les buts cachés éventuels assignés à son intervention, sont essentiels à la réussite de sa mission. D’un point de vue déontologique, les conclusions d’un analyste n’ont pas à être inféodées aux intérêts de celui qui les a demandées, mais se doivent de servir en priorité l’entreprise dans son ensemble. L’analyste peut être confronté à des processus de désinformation, soit en provenance des sources extérieures, soit même au sein de l’entreprise. Sans tomber dans la paranoïa, il convient donc que l’analyste garde sa lucidité et fasse des recoupements.

Enfin, probablement on pourrait appliquer aux analystes en général, la boutade qui dit : « Si vous voulez cinq avis sur un problème économique, faites discuter quatre économistes ».

Pour aller plus loin vous pouvez utilement consulter mes autres articles ci-dessous :

Méthode et stratégie de résolution de problème

Analyse de données, information et stratégie le modèle militaire

Décision, aide à la décision : un monde complexe

Au-delà de la décision, l’action

Rédigé par Michel Bruley le Mardi 1 Décembre 2009 à 09:15 | Permalien | Commentaires {0}


Les entreprises s’appuient sur de nombreux moyens informatiques pour fonctionner et réaliser leurs activités physiques (production, logistique, ...) ou de gestion (comptable, ressources humaines, ...). Ces moyens gèrent des données communes, par exemple les données d’identification des clients ou des produits, mais le plus souvent les définissent de façon hétérogènes. L’hétérogénéité des définitions a deux causes, d’une part les besoins des différents acteurs de l’entreprise ne sont pas exactement les mêmes et d’autre part les solutions informatiques sont différentes. Même les entreprises qui utilisent un progiciel de gestion intégré n’échappent pas à cette problématique, car leur PGI ne couvre généralement pas tous leurs besoins informatiques, et dans les grandes entreprises il est rare qu’elles en aient fait une mise en œuvre homogène.

La gestion des données de référence, en Anglais Master Data Management (MDM), a pour objet de répondre à cette problématique, elle consiste à gérer la qualité et la cohérence des données du système d’information de l’entreprise. Il s’agit de regrouper, l'ensemble des données permanentes ou dont la durée de vie est longue, dans un système qui a pour fonction de fournir la version standardisée d’une donnée, qui doit être systématiquement utilisée pour mettre à jour les différentes applications informatiques de l’entreprise. Concrètement ce référentiel contient l'ensemble des objets essentiels à la vie de l'entreprise, et décrit les liens qu'ils entretiennent entre eux, par exemple : numéro de référence clients, adresse de livraison, code produit, hiérarchie produit, plan de comptes, classification des postes, etc. Grâce à un référentiel et à des processus de contrôle et de validation, les données sont gérées de façon cohérente et les doublons évités.

Une bonne gestion des données de référence présente un grand intérêt dans de nombreux domaines. En matière de relation client par exemple, il est essentiel que tous les acteurs de l’entreprise puissent avoir les meilleures données possibles pour réaliser leurs activités. Des données incohérentes ou incomplètes peuvent conduire à une dégradation du service rendu ou à rater des opportunités de vente. Il y a d’autant plus besoin de bien gérer l’homogénéité, qu’il y a un grand nombre d’acteurs ou de systèmes en relation avec le client, c’est particulièrement le cas pour les industries qui vendent à travers de multiples canaux (internet, centre d’appel, borne automatique, point de vente, ...). Au-delà de la dimension opérationnelle et quelque soit le domaine fonctionnel, il est aussi intéressant d’avoir une bonne gestion des données de référence pour le système d’information décisionnel, par exemple pour les statistiques, les tableaux de bord et les prévisions.

Pour aller plus loin sur ce dernier sujet, vous pouvez utilement consulter mes autres propos ci-dessous :

Gérer l’ADN du système décisionnel;

Gérer le référentiel métier dans l’entrepôt de données

Gestion des données métier de référence (MDM) : où en sommes-nous ?

Solutions de gestion des données de référence (MDM)

Gestion des données de référence et entrepôt de données

Rédigé par Michel Bruley le Dimanche 1 Novembre 2009 à 09:32 | Permalien | Commentaires {0}

Dans l’entreprise la notion de gouvernance fait souvent l’objet de commentaires critiques et de scepticisme. Au-delà du fait que les modes de direction évoluent plus ou moins vite selon les entreprises, le souhait d’une régulation fondée sur une plus grande implication des parties prenantes est lui par contre très partagé. Le système d’information est l’un des domaines où une plus grande participation aux décisions est recherchée. L’informatique a pris une telle importance pour toutes les activités d’une organisation, que de nombreux choix qui la concerne ont un impact majeur voir stratégique pour les grandes fonctions, et peuvent déterminer le devenir de l’entreprise. Pour les utilisateurs il ne s’agit donc pas simplement de veiller à ce que la direction informatique « aligne les technologies sur la stratégie d’entreprise », mais bien de travailler ensemble pour gérer la maison commune.

Partie importante du SI, les systèmes décisionnels font plus que d’autres l’objet d’une demande d’évolution de la gouvernance, et compte tenu de la complexité du domaine, les directions informatiques sont souvent plus facilement ouvertes à de nouvelles pratiques. Cependant, rares sont les entreprises qui ont radicalement transformé leur façon de diriger, d’administrer et de contrôler cette partie du SI, les directions informatiques très jalouse de leurs prérogatives, mettent toujours en avant les dimensions techniques des choix pour conserver tout leur pouvoir. Malgré tout il est fréquent de voir des avancées en matière de gouvernance de données et le cas de British Airways est en ce sens représentatif.

Bristish Airways a depuis longtemps mis en place son premier entrepôt de données et l’a depuis fait évoluer pour répondre aux besoins de l’ensemble de ses activités, cherchant à supporter aussi bien des décisions stratégiques, qu’opérationnelles, avec quinze domaines fonctionnels aujourd’hui couverts. Dans le cadre de ses développements successifs, British Airways a toujours eu en ligne de mire d’améliorer les relations avec ses clients en s’appuyant sur une bonne gestion de l’information et en particulier une bonne qualité des données. Pour cela la compagnie aérienne a engagé un projet conséquent de gouvernance des données.

La première phase de ce projet a consisté à identifier les différentes parties prenantes de cette problématique et à trouver des supports pour cette initiative de gouvernance, au plus haut niveau de la compagnie (direction générale, financière, commerciale, …). Cela s’est concrétisé par la mise en place d’un comité de direction spécifique incluant des utilisateurs, des informaticiens, et la désignation de quelqu’un du métier du transport aérien pour prendre la responsabilité à plein temps de ce programme de changement. A ce niveau ont été définis des principes de gouvernance des données et une organisation comprenant :
 18 responsables de grands ensembles de données (données clients, coupons de vol, contrôle de gestion, trafic, maintenance, …) s’appuyant sur 30 responsables métiers issus de toutes les directions métiers de l’entreprise et 12 responsables techniques issus de la DSI.
 Un programme de gestion proactive des données, incluant des processus de réponse aux besoins des utilisateurs et de gestion des projets de développement, des réunions régulières, des revues mensuelles, des indicateurs de suivi, etc.

Au-delà de l’implication, de la responsabilisation et de l’organisation de la prise en charge des problèmes quotidiens de gouvernance des données, ce projet a permis de traquer pro-activement des opportunités d’amélioration de la qualité des données, de la qualité des modèles, des technologies mis en œuvre, des architectures et des projets de développement. En termes de résultat, au niveau de l’utilisation des données cela s’est traduit par une meilleure compréhension des informations produites par les systèmes décisionnels, et le développement de nouveaux usages métier des gisements de données.

Sans rentrer dans tous les détails du fonctionnement de la gouvernance des données chez British Airways, le responsable de ce programme donne les conseils suivants aux personnes qui auraient la même mission que lui :
 Assurer vous que vous avez la bonne infrastructure de gestion des données en termes de modèle de données et de plateforme.
 Faites en sorte que le comité de direction vous supporte et vous fournisse le financement nécessaire au projet.
 Mettez en place une solide structure de gouvernance.
 Cherchez passionnément le succès.
 Soyez résilient.

Pour aller plus loin sur ce sujet de la gouvernance des systèmes d’information décisionnels, vous pouvez utilement consulter mes autres articles ci-dessous :

De la gouvernance des systèmes décisionnels

Conseil pour une bonne gouvernance des systèmes décisionnels

Développeurs fantômes et centre de compétence BI : l’expérience de Belgacom Group

Système décisionnel : comment concilier industrialisation et capacité d’innovation

Rédigé par Michel Bruley le Jeudi 1 Octobre 2009 à 08:27 | Permalien | Commentaires {0}
Dans les entreprises industrielles ou commerciales la mise en place d’un système d’information décisionnel, conduit systématiquement à mettre d’abord en place des tableaux de bord, qui permettent d’appréhender certains aspects de la situation des activités concernées. Rapidement cependant ces tableaux de bord suscitent beaucoup de questions qui restent sans réponse, et les utilisateurs souhaitent alors dépasser la simple description des situations, en faisant des analyses qui permettent de rechercher les causes des résultats qu’ils observent. Lorsqu’une organisation commence à identifier et comprendre les paramètres de ses activités, elle cherche alors à exploiter ses informations pour faire des prévisions, car la capacité de prévoir et d’anticiper le futur est toujours essentielle pour une gestion stratégique de l’entreprise.

La prévision économique est une discipline qui est aujourd’hui bien maîtrisée. La gamme des théories et des outils à la disposition des prévisionnistes est très étendue, et la pratique effective de la prévision a connu de nombreux développements dans les organisations. Il existe une grande diversité de techniques pour répondre à la variété des tâches de prévision des différentes fonctions des entreprises, et le progrès constant de l’informatique décisionnelle joue un rôle prépondérant dans la généralisation de la production d’informations prévisionnelles. Cependant la prévision économique est toujours incertaine, et aux estimations des valeurs futures sont toujours associés des intervalles de confiance, des incertitudes sur les décisions des acteurs concernés et les réactions en chaîne qui en découlent, tout cela rendant toute prévision périlleuse (voir le thème de la théorie des jeux).

Si les tableaux bord peuvent être utilisés par des milliers de personnes dans une grande entreprise, les analystes et les prévisionnistes sont toujours beaucoup moins nombreux. Mais si le nombre d’utilisateurs finaux qui applique des techniques avancées d’analyse et de prévision est dans une entreprise généralement limité, ce petit nombre de personnes est par contre générateur de beaucoup de valeur pour la conduite des activités. Les analystes et prévisionnistes sont aussi de grands consommateurs de ressources informatiques, et peuvent générer en pointe jusqu’à 50% de la charge de traitement d’un système d’information décisionnel. Cette lourde utilisation de ressources s’expliquant par la complexité du travail effectué et les volumes de données historiques à traiter, car l’élaboration de modèles implique généralement l’utilisation de métriques complexes dérivées de nombreuses observations.

Les systèmes d’information opérationnels représentent des mines d’informations élémentaires, qui permettent par leur traitement des anticipations efficaces et précises. Les champs d’application sont extrêmement étendus, qu’il s’agisse de l’optimisation de la gestion des contacts clients, de la gestion des risques (détection de fraude, lutte anti-blanchiment, lutte antiterrorisme), de merchandising, d’optimisation de la chaîne logistique et de la gestion de stock, d’optimisation des flux de matières, d’informations, d’optimisation de gestion de production, d’optimisation de l’emploi des ressources humaines, de service client, de gestion de configuration, etc. Pour répondre à ces besoins les systèmes décisionnels doivent gérer des informations plus ou moins fraîches, et pour certaines applications il est parfois nécessaire d’intégrer des données opérationnelles plusieurs fois par jour, voir en quasi temps réel.

Pour aller plus loin vous pouvez utilement consulter ci-dessous mes autres articles sur ce sujet :

De la prévision de la demande client

Entrepôt de données et prévision de la demande

Lablaw où comment réduire les ruptures de stock avec un bon système de prévision;

Overstock.com un entrepôt de données actif

Rédigé par Michel Bruley le Mardi 1 Septembre 2009 à 08:24 | Permalien | Commentaires {0}

A trop avoir voulu intégrer de fonctionnalités dans leurs produits, les éditeurs de progiciel de gestion intégré (PGI) ont créés des dinosaures informatiques dont la disparition est amorcée. Au départ il y avait eu l’idée de faciliter l’intégration de la gestion en construisant des applications informatiques (comptabilité, paie, gestion de stocks, …), de manière modulaire (modules indépendants entre eux), et de rester ouverts aux spécificités des métiers et donc à l’intégration avec d’autres systèmes.

Très rapidement les éditeurs ont été hégémoniques et ont développés des offres cherchant à couvrir tous les besoins fonctionnels opérationnels ou décisionnels, avec de nombreuses variantes sectorielles. De plus avec le développement de la globalisation des affaires, les éditeurs ont été amenés à faire en sorte que leurs progiciels puissent gérer et prendre en charge plusieurs entités ou organisations (filiales, etc.), périodes différentes simultanées (exercices comptables par exemple), devises, langues pour les utilisateurs et les clients (cas des multinationales), législations et plans de comptes.

Les inconvénients majeurs de cette approche se sont vite révélés : coût élevé, lourdeur, rigidité de mise en œuvre et surtout périmètre fonctionnel le plus souvent inadapté, trop étroit sur le cœur du métier et trop large pour la plupart des autres fonctions. Il faut en outre ajouter des difficultés d'appropriation par les collaborateurs, la nécessité parfois d'adapter certains processus au progiciel, l’importance de la maintenance continue, sans oublier la captivité vis à vis de l'éditeur.

Pour pallier à cette situation hautement dommageable, un virage fonctionnel et technique est en cours vers la distribution des fonctions en différentes applications, indépendantes techniquement et interfacées avec le noyau du progiciel de gestion intégré, le tout architecturé autour d’un EAI. L'intégration d'applications d'entreprise (en anglais Enterprise Application Integration, EAI) est une architecture informatique permettant à des applications hétérogènes de gérer leurs échanges en temps réel. Cette architecture permet d’intégrer des applications spécifiques centrées sur une fonction ou un aspect particulier d’une entreprise ou d’un métier comme la gestion des ateliers (MES), la gestion des laboratoires (LIMS), la gestion de la réservation dans les transports, la gestion des risques dans la banque, des réseaux dans les télécommunications, etc….

Les systèmes d’information architecturés avec un EAI sont plus à même d’intégrer la diversité, de concilier la profondeur métier avec l’intégration, tout en gardant l’indépendance de maintenance de chaque application. Cela est favorable aussi l’ouverture, comme pour l’EDI (Échange de Données Informatisé) qui permet d'échanger des informations selon un format standardisé comme l’EAN (biens de consommation), ODETTE ou CAP (Industrie automobile), RosettaNet (électronique), CIDX (chimie), PIDX (pétrole). C’est aussi une bonne architecture pour intégrer activement un entrepôt de données d’entreprise.

En matière de système décisionnel la problématique est la même, l’architecture intégrant un entrepôt de données via un EAI est mieux que les batteries de tableaux de bord et des moyens d’analyse fournit en standard avec un progiciel de gestion intégré. D’autant plus que les PGI cohabitent pratiquement toujours avec de nombreuses autres applications comme déjà évoqué plus haut (celles qui sont spécifiques à certains aspects du cœur du métier de l’entreprise), dés lors il est pertinent de vouloir maîtriser ces multiples sources de données, de relier à un niveau détaillé les données clés de l’activité et de ne pas se contenter de rapprocher des données agrégées dans des tableaux de bord.
(Voir l’architecture de référence Teradata via le lien http://www.teradata.com/t/page/132236/ )

L’apport essentiel d’un entrepôt de données est de mettre à disposition des utilisateurs des données historiques qui permettent une vue complète, détaillée et transverse des activités. Cette complétude est obtenue par l’intégration de toutes les données relatives aux activités, et donc concrètement par une standardisation & une organisation des données de tous les systèmes opérationnels correspondants dans un gisement unique, comme par exemple et de façon non limitative celles relatives aux applications suivantes : Customer Relation Management, Demand Planning and Forecasting, Supplier Relation Management, Advanced Planning & Scheduling, Enterprise Resources Planning, Transportation Management System, Warehouse Management System, Distributed Controlled System, Manufacturing Execution System.

Teradata, collabore sur ce thème avec de nombreux fournisseurs de progiciels et a même développé des partenariats approfondis avec certains, pour optimiser les services rendus aux utilisateurs tant sur le plan opérationnel que décisionnel. Par exemple avec SAP nous avons une équipe permanente à Walldorf, pour répondre à nos clients communs, de grandes entreprises leaders de divers secteurs comme : Coca Cola Enterprises Inc., Migros, Posteitaliane, Grupo Gigante, Metro, Dupont, Samsung, etc. …

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

PGI versus Best of Breed : en décisionnel la question ne se pose même pas

A chacun son rôle : ERP ou progiciels pour administrer et entrepôt de données actif pour conduire les affaires

PGI / Tableaux de bord / Entrepôt de données : complémentarité porteuse de valeur

SAP & Teradata : le duo gagnant

Rédigé par Michel Bruley le Mardi 4 Août 2009 à 09:55 | Permalien | Commentaires {0}
Le pilotage stratégique beaucoup de monde en parle, mais peu d’entreprises savent réellement en tirer parti. Elles n’y voient, trop souvent, qu’une version améliorée des bons vieux tableaux de bord. Ce faisant, elles oublient l’apport majeur du pilotage stratégique : il s’agit de mobiliser l’énergie collective dans le cadre d’un processus d’apprentissage continu de son environnement.

Mais comment parler d’énergie collective quand on voit telle entreprise vanter les mérites de son nouveau système d’informations, reposant sur 17 objectifs stratégiques et une quarantaine d’indicateurs… qui sont analysés par les cinquante cadres dirigeants gravitant autour de la direction générale. Pourquoi cinquante personnes seulement, alors que cette vision et ces objectifs stratégiques devraient être partagés par l’ensemble de l’entreprise ?

L’expérience montre que si les entreprises sont aujourd’hui en mesure de définir leur vision et leurs objectifs stratégiques, elles ont en revanche toujours autant de mal à les mettre en œuvre et les diffuser dans l’ensemble de leurs équipes. Au mieux parvient-on à mobiliser la direction générale et les forces commerciales et marketing, par nature sensibles à leur environnement. Mais par exemple les équipes de production sont encore trop souvent mises à l’écart. Pourquoi ? Parce que les entreprises sont encore très cloisonnées. Parce que chaque service interprète les objectifs stratégiques en fonction de sa culture et de ses propres intérêts. Parce que l’empilement des structures et des systèmes d’informations complique la mobilisation de l’ensemble de l’effectif, autour d’objectifs globaux.

Or, les nouveaux outils de BI facilitent la mise au point d’indicateurs fédérant toutes les couches de l’entreprise. La vision stratégique de la direction générale doit en effet être diffusée et déclinée dans tous les services de l’entreprise : il s’agit de fixer à chacun des objectifs qui lui « parlent ». Parce qu’un chef d’équipe sur une chaîne de montage se sentira infiniment plus concerné par un objectif de réduction des délais de mise en route de la chaîne ou par un ratio de défauts, que par un objectif d’accroissement de part de marché au plan mondial.

Le véritable enjeu du pilotage stratégique consiste donc à décliner une vision globale en une batterie de tableaux de bord pertinents : chaque tableau de bord étant un affinage de l’objectif général adapté aux réalités de chaque équipe. La mise au point de ces tableaux de bord repose sur un système décisionnel performant, permettant d’exploiter conjointement l’ensemble des informations internes à l’entreprise, des informations issues des veilles technologique, commerciale et sociétale, ainsi que du benchmarking, de façon à mettre au point des tableaux de bord prospectifs et véritablement orientés vers l’amélioration de la performance sur un marché donné.

Pour être efficaces, ces outils de gestion de la performance doivent concerner le plus de gens possible : le système de pilotage stratégique du Réseau de Distribution d’un Grand Constructeur Automobile mobilise ainsi plus de 2 500 salariés autour d’une batterie de 2 000 indicateurs. Dans une grande entreprise, un bon pilotage stratégique doit fédérer plusieurs milliers de collaborateurs autour d’autant d’indicateurs (à raison d’une dizaine d’indicateurs au maximum par équipe, et d’une cinquantaine pour la direction générale). Dans ces conditions - et s’il est porté par une direction générale et des contrôleurs de gestion motivés- le pilotage stratégique peut devenir un thème aussi porteur et novateur pour les entreprises que l’ont été les enjeux de qualité totale et de CRM.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Besoins & tendances en matière de décisionnel dans un contexte de globalisation

Etre dans le vent, c’est une ambition de feuille morte : parlez métier

L'entrepôt de données un des outils de l'Intelligence Economique

La BI en trois étapes de bon sens : partez lentement pour aller vite

Rédigé par Michel Bruley le Mercredi 1 Juillet 2009 à 08:04 | Permalien | Commentaires {0}

Le succès du décisionnel a généré une demande de moyens d’aide à la décision forte depuis plusieurs années, qui s’est traduite dans les entreprises par la mise en place de nombreux systèmes, afin de répondre progressivement à tous les besoins, émanant de tous les services, départements ou divisions des différentes fonctions. La plupart du temps le décisionnel n’a pas été la priorité des directions informatiques, occupées à rationaliser les systèmes de production, par la mise en place de systèmes de gestion des opérations type ERP ou CRM. Dans ce contexte les projets décisionnels ont rarement été bien traités, ils ont très souvent été mis en œuvre sans plan d’ensemble, de façon désordonnée, en multipliant les solutions techniques et fonctionnelles, laissant à l’arrivée les entreprises avec de nombreux systèmes hétérogènes tant en termes techniques que métiers. Cette situation est très pénalisante, notamment car elle crée de véritables dédales pour accéder aux informations, et elle ne permet pas de dépasser les jargons des métiers, en fixant une vérité d’entreprise dans un langage commun.

Les architectures de systèmes décisionnels hétérogènes posent des problèmes spécifiques, qui impactent très négativement la gestion des données, la possibilité de les exploiter à des fins décisionnelles, et la capacité à suivre l’évolution du rythme des affaires d’aujourd’hui. La redondance et la fragmentation des données, la difficulté à synchroniser voir à gérer des règles métier distribuées dans de nombreux flux, ou l’absence d’un référentiel commun, perturbent les utilisateurs dont les différents systèmes produisent des résultats présentant des incohérences inexpliquées. L’absence d’une vision intégrée et transversale multi domaines fonctionnels, limite largement la capacité des entreprises à comprendre et maîtriser leurs activités ou leur environnement. Les délais de maintenance des flux redondants, les difficultés d’évolution vers les nouveaux besoins d’alimentation en temps réel et d’intégration des moyens décisionnels avec les applications opérationnelles, obèrent la capacité à mettre en place de nouvelles solutions métier, aujourd’hui nécessaires aux entreprises pour rester concurrentielles.

Pour sortir de cette impasse, la solution est d’optimiser l’architecture en suivant deux voies. Il convient de simplifier et factoriser les flux des données des systèmes hétérogènes, chaque système opérationnel source livre ses données à un système unique. Ensuite il s’agit d’intégrer techniquement dans l’entrepôt de données, les différents systèmes, pour qu’ils bénéficient des avantages de la centralisation en matière d’optimisation des coûts et de partage des données. Les différents systèmes ne disparaissent donc pas fonctionnellement, et même les applications décisionnelles complémentaires, telle que par exemple une application d’élaboration budgétaire avec une base de données multidimensionnelle, s’intègrent naturellement en aval de cette architecture en échangeant des données avec l’entrepôt central d’entreprise.

Les bénéfices principaux d’une approche de consolidation consistent à diminuer les coûts, améliorer la qualité et augmenter les capacités fonctionnelles. Au niveau des coûts il s’agit, dans l’immédiat mais aussi dans le cadre de la montée en charge des usages et des évolutions fonctionnelles, de diminuer les charges de développement, d’administration et de maintenance des procédures d’alimentation, de l’architecture matérielles et logicielles, de la mise en œuvre de nouveaux projets, et de diminuer les risques inhérents à la gestion de composants multiples. L’amélioration de la qualité des données vient du référentiel unique et de la simplification de la gestion des flux, qui augmentent les performances, et permettent d’alimenter l’entrepôt de données d’entreprise dans des délais plus courts. L’amélioration des capacités fonctionnelles est induite par l’approche intégrée et transversale qui permet aux utilisateurs d’accéder plus facilement à l’information centralisée, d’augmenter la sophistication de leurs études (marketing, logistiques, financières, …), et de mettre en œuvre plus rapidement des applications analytiques (CRM, rentabilité, ABC/ABM…), qui nécessitent des données auparavant stockées dans divers systèmes.

En conclusion, il faut donc consolider et intégrer les systèmes décisionnels spécialisés indépendants (ou Data Marts indépendants), qui se limitent chacun à un sujet (métier) donné, par exemple le marketing, et sont mis à la disposition exclusive des utilisateurs d’un département ou d’un groupe de travail. Il faut créer un entrepôt de données d’entreprise (ou Data Warehouse) pour stocker et intégrer de manière centraliser toutes les données de l’entreprise, et mettre à disposition de tous les utilisateurs décisionnels, directement ou indirectement (vue, data mart intégré, data mart dépendant alimenté par l’entrepôt de données central).

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Impasse du Data Mart Indépendant, des gains à court terme, des couts à long terme.

Des Data Marts pour créer un monde d’aveugles.

Data Warehouses distribués : voyage jusqu’au bout des inconvénients.

Consolidation des « data warehouses » : la voie du salut.

Data Marts Consolidation.

Exemple de consolidation de data marts dans un entrepôt de données actif dans le secteur public.

Rédigé par Michel Bruley le Mardi 2 Juin 2009 à 10:51 | Permalien | Commentaires {0}
1 ... « 17 18 19 20 21


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile


Rubriques

Rubriques