La révolution marketing de la fin des années 60 a consisté à placer le marché au centre des affaires et s’est développée comme une approche multidisciplinaire pour comprendre le comportement des consommateurs. D’emblée tout cela a fait l’objet de recherche complexe mais les systèmes d’information de l’époque n’apportaient pas facilement un support efficace pour capitaliser la connaissance des clients ou pour agir sur les marchés. Quand dans les années 90 des moyens informatiques ont été déployés dans toutes les fonctions de l’entreprise, dans le monde marketing vente, ils ont été surtout employés pour supporter les actions de marketing direct, de vente ou de télémarketing et assez peu pour analyser les clients. C’est là l’une des raisons de l’échec de nombreux projets de CRM qui se sont contentés d’automatiser des pratiques existantes sans apporter de changement perceptible et significatif pour les clients.
Créer et capturer la valeur c’est l’essence de l’approche CRM et pour cela il convient de bien analyser la valeur vue du client, c'est-à-dire en particulier de bien comprendre le client. Pour ce faire pendant longtemps les entreprises ont fondé cette connaissance sur des études, des sondages, c'est-à-dire des déclarations des clients et des remontées d’informations du terrain via les vendeurs ou les distributeurs. Pour mettre en œuvre un marketing de masse c’était suffisant, mais depuis quelques années et pour supporter un marketing plus segmenté, voire 1:1, elles privilégient les bases de données et l’analyse des comportements réels c'est-à-dire l’analyses des transactions effectuées.
Une bonne compréhension de son client permet d’optimiser le positionnement de l’offre. Il convient d’abord de définir clairement ce qu’est l’offre et de la différencier le plus nettement possible des offres similaires en proposant un bénéfice essentiel aux yeux du client. Ensuite il faut développer et mettre en lumière les relations entre l’offre et les besoins des cibles visées. Enfin il faut défendre méthodiquement son positionnement face aux réactions de la concurrence et aux modes, tout en tenant compte de l’évolution des exigences des clients. Tout ceci fait que pour le marketing le maître mot n’est plus de vendre des produits mais de construire la relation.
Un bon positionnement suppose une bonne connaissance des arbitrages que font les clients au moment d’un achat. Pour ce faire il convient de réaliser des analyses pour obtenir une segmentation du marché qui soit opérationnelle, c'est-à-dire qui permettent de construire la relation et qui n’oublie pas d’intégrer le prix à payer pour atteindre chaque segment et donc mener les stratégies de conquête ou de fidélisation nécessaires. Dans ce domaine de la connaissance client, force est de constater qu’aujourd’hui les approches quantitatives dominent qui cherchent à faire parler les données, et utilisent un arsenal de techniques de plus en plus sophistiquées, avec notamment l’omniprésence du data mining, au détriment des élucubrations qualitatives de créatifs plus moins en phase avec le monde réel.
Le data mining doit permettre d’établir des liens entre des événements de la vie des clients ou des prospects, et les résultats de l’offre de l’entreprise sur le marché. Il ne s’agit plus de se fonder uniquement sur des caractéristiques socio-économiques, mais d’intégrer dans l’analyse des événements de la vie et des affinités diverses comme celles liées aux médias de communication ou aux canaux de distribution. Les possibilités sont extrêmement nombreuses mais souvent rapidement limitées par la disponibilité ou la qualité des informations. Une des erreurs classiques ici est de construire une base de données dédiée au marketing plutôt que de s’appuyer sur un entrepôt de données d’entreprise qui permet d’accompagner la démarche dans toute ses dimensions, de l’analyse client, à l’analyse des résultats de l’entreprise ou de la fonction marketing, en passant par le support aux actions marketing, mais aussi au support des actions des autres fonctions en contact avec le client comme la vente, la comptabilité, l’après-vente, la R&D par exemple.
Au-delà d’un entrepôt de données et de bons outils d’analyse, il convient de disposer de toute une panoplie de moyens pour transformer les transactions en relation. Il faut par exemple et de façon non limitative, des outils spécifiques par canaux d’interaction (force de vente, téléacteur, marketing direct, web), il faut faire le lien avec les systèmes de planification de l’entreprise, avec les systèmes de gestion des ressources et des opérations, avec les systèmes de reporting. Comme il n’existe pas sur le marché de solution d’ensemble suffisamment flexible et performante pour répondre à la diversité des besoins des différents secteurs, les entreprises doivent sélectionner ce qui leur convient et intégrer les solutions retenues.
Pour sélectionner les bons outils, la tâche n’est pas triviale, d’autant plus que les fournisseurs du monde l’IT maîtrisent très bien les techniques de positionnement de leur propre produit et savent développer des concepts valorisants pour promouvoir leur solution. Vu du client il peut en résulter une certaine confusion du fait de la multiplication des sigles utilisant toujours soit le mot marketing soit le mot Client, comme CRM, CRO, CEM, EEM, EMA ou MRM. Aujourd’hui la mode est aux solutions de Marketing Intégrées. Par exemple : cliquez ici
Rédigé par Michel Bruley le Vendredi 1 Juin 2012 à 09:28
|
Permalien
|
{1}
Il a pu être démontré que le comportement passé des êtres humains est l’un des facteurs de prévision les plus fiables de leur comportement futur. C’est pourquoi l’information tirée de l’historique des transactions est déterminante. La réussite future d’une entreprise dépend de l’ampleur de la connaissance qu’elle peut avoir de chaque client individuel, plutôt que de ce qu’elle sait de sa clientèle prise comme un tout. Il faut donc favoriser la pratique de la collecte permanente des informations spécifiques sur les clients, pour enrichir le gisement des données historiques de l’entreprise. Chaque nouvelle rencontre - qu’elle soit le fait du service clients, d’un intermédiaire, ou qu’elle résulte d’un processus de recherche de données - doit être considérée comme une opportunité supplémentaire de collecte d’informations additionnelles. Cette information constitue le fondement d’un actif majeur de l’entreprise, à savoir : les relations qu’elle entretient avec ses clients.
Pour gérer cette information, les entreprises font désormais appel à des entrepôts de données orientés client, dont elles se servent indépendamment de leurs bases de données opérationnelles classiques. En effet, souvent disparates en raison de la structure même des données, les bases de données opérationnelles peuvent limiter la portée de l’analyse orientée client. L’entrepôt de données s’impose donc comme la base indispensable pour atteindre des objectifs commerciaux spécifiques, et pour élaborer des modèles prédictifs, ou en d’autres termes pour procéder de façon radicalement différente du simple stockage de données.
Les entreprises avancées sont maintenant capables de consolider des données structurées ou non, par exemple des noms et des adresses à l’aide de logiciels conçus pour supprimer les données superflues. Grâce à cette « version unique de la vérité », elles peuvent désormais identifier leurs clients en tant qu’individus. Elles peuvent également identifier tous les produits que ces clients ont achetés auprès de l’entreprise et reconnaître les membres séparés d’un même foyer. Depuis combien de temps ce client entretient-il des relations avec l’entreprise ? D’autres membres de la même famille sont-ils également clients ? S’agit-il d’une famille titulaire de un, ou de plusieurs produits ? Ont-ils entretenu des relations avec plus d’un seul intermédiaire ? Utilisent-ils des canaux de distribution différents pour des produits distincts ? Les questions sont innombrables. La seule différence tient au fait qu’il y a désormais des réponses à ces questions. En effet la fouille de données permet d’élaborer des modèles prédictifs, aussi bien pour le marketing direct que pour l’aide à la décision dans différentes fonctions. Dans le même temps il s’avère éminemment profitable pour différentes structures d’une organisation d’utiliser la même information.
Par exemple la direction marketing peut se pencher sur les caractéristiques des individus qui achètent les produits, et non plus s’intéresser seulement aux chiffres d’affaires, à l’âge, ou à la fidélité du client. La direction financière peut commencer à modéliser différents scénarios de coûts basés sur l’activité, sans perturber les transactions en cours et procéder à des analyses de sensibilité, pour tester la fiabilité des différents modèles d’allocation de coûts. Le service client peut faire appel à la technologie pour analyser ses coûts jusqu’au niveau le plus fin, et se servir des résultats pour améliorer l’efficacité de l’entreprise. C’est dans le recours à une utilisation transversale des données de l’entreprise que se trouve en dernière instance l’origine du profit. Lorsqu’une entreprise est capable de savoir qui sont réellement ses clients et quels types d’interactions ils ont avec elle, il lui est plus facile de commercialiser ses produits. De la même façon dès lors qu’il est possible d’identifier avec précision d’où procède le profit au sein de l’entreprise - par segment de marché, par produit, par canal de distribution - les responsables ont un moyen de peser directement sur les profits et non plus seulement sur le chiffre d’affaires.
Cette approche vaut aussi bien pour les entreprises qui opèrent par l’intermédiaire de réseaux de distribution, que pour ceux qui gèrent directement leurs opérations. En effet, l’approche « orientée client » s’applique aux deux niveaux : client final (toute entreprise peut valoriser le travail de son réseau de distribution en l’aidant à mieux comprendre son propre marché), et directement au niveau de la distribution (en ciblant au moment opportun les services adéquats à proposer à des clients spécifiques en fonction de leur rentabilité actuelle et potentielle).
La mutation au profit d’une approche davantage orientée client, constitue une tentative pour reconsidérer tous les aspects de l’activité du point de vue du client. Il ne faut jamais oublier que le but du marketing consiste à générer une valeur que le client puisse percevoir. Dans le cadre des programmes de fidélisation, il faut d’abord évaluer l’identité des clients à conserver, et la raison pour laquelle ils doivent être fidélisés. Que faire à propos des clients marginaux ou de ceux qui sont générateurs de perte pour l’entreprise ? La planification de la fidélisation de la clientèle est le point de départ de la solution et c’est son implémentation qui est source de rentabilité. De façon générale, les clients fidèles sont aussi les clients les plus rentables. Il n’y a aucun coût d’acquisition. Ils ont tendance à acquérir davantage de produits, de services et à en tester de nouveaux. Leur nombre croissant conduit à une situation de rente. L’entreprise peut alors gérer les coûts à engager pour répondre à leurs besoins, et l’entreprise bénéficie pleinement du « bouche à oreille ».
Pour aller plus loin vous pouvez utilement consulter le lien suivant : cliquez ici
Pour gérer cette information, les entreprises font désormais appel à des entrepôts de données orientés client, dont elles se servent indépendamment de leurs bases de données opérationnelles classiques. En effet, souvent disparates en raison de la structure même des données, les bases de données opérationnelles peuvent limiter la portée de l’analyse orientée client. L’entrepôt de données s’impose donc comme la base indispensable pour atteindre des objectifs commerciaux spécifiques, et pour élaborer des modèles prédictifs, ou en d’autres termes pour procéder de façon radicalement différente du simple stockage de données.
Les entreprises avancées sont maintenant capables de consolider des données structurées ou non, par exemple des noms et des adresses à l’aide de logiciels conçus pour supprimer les données superflues. Grâce à cette « version unique de la vérité », elles peuvent désormais identifier leurs clients en tant qu’individus. Elles peuvent également identifier tous les produits que ces clients ont achetés auprès de l’entreprise et reconnaître les membres séparés d’un même foyer. Depuis combien de temps ce client entretient-il des relations avec l’entreprise ? D’autres membres de la même famille sont-ils également clients ? S’agit-il d’une famille titulaire de un, ou de plusieurs produits ? Ont-ils entretenu des relations avec plus d’un seul intermédiaire ? Utilisent-ils des canaux de distribution différents pour des produits distincts ? Les questions sont innombrables. La seule différence tient au fait qu’il y a désormais des réponses à ces questions. En effet la fouille de données permet d’élaborer des modèles prédictifs, aussi bien pour le marketing direct que pour l’aide à la décision dans différentes fonctions. Dans le même temps il s’avère éminemment profitable pour différentes structures d’une organisation d’utiliser la même information.
Par exemple la direction marketing peut se pencher sur les caractéristiques des individus qui achètent les produits, et non plus s’intéresser seulement aux chiffres d’affaires, à l’âge, ou à la fidélité du client. La direction financière peut commencer à modéliser différents scénarios de coûts basés sur l’activité, sans perturber les transactions en cours et procéder à des analyses de sensibilité, pour tester la fiabilité des différents modèles d’allocation de coûts. Le service client peut faire appel à la technologie pour analyser ses coûts jusqu’au niveau le plus fin, et se servir des résultats pour améliorer l’efficacité de l’entreprise. C’est dans le recours à une utilisation transversale des données de l’entreprise que se trouve en dernière instance l’origine du profit. Lorsqu’une entreprise est capable de savoir qui sont réellement ses clients et quels types d’interactions ils ont avec elle, il lui est plus facile de commercialiser ses produits. De la même façon dès lors qu’il est possible d’identifier avec précision d’où procède le profit au sein de l’entreprise - par segment de marché, par produit, par canal de distribution - les responsables ont un moyen de peser directement sur les profits et non plus seulement sur le chiffre d’affaires.
Cette approche vaut aussi bien pour les entreprises qui opèrent par l’intermédiaire de réseaux de distribution, que pour ceux qui gèrent directement leurs opérations. En effet, l’approche « orientée client » s’applique aux deux niveaux : client final (toute entreprise peut valoriser le travail de son réseau de distribution en l’aidant à mieux comprendre son propre marché), et directement au niveau de la distribution (en ciblant au moment opportun les services adéquats à proposer à des clients spécifiques en fonction de leur rentabilité actuelle et potentielle).
La mutation au profit d’une approche davantage orientée client, constitue une tentative pour reconsidérer tous les aspects de l’activité du point de vue du client. Il ne faut jamais oublier que le but du marketing consiste à générer une valeur que le client puisse percevoir. Dans le cadre des programmes de fidélisation, il faut d’abord évaluer l’identité des clients à conserver, et la raison pour laquelle ils doivent être fidélisés. Que faire à propos des clients marginaux ou de ceux qui sont générateurs de perte pour l’entreprise ? La planification de la fidélisation de la clientèle est le point de départ de la solution et c’est son implémentation qui est source de rentabilité. De façon générale, les clients fidèles sont aussi les clients les plus rentables. Il n’y a aucun coût d’acquisition. Ils ont tendance à acquérir davantage de produits, de services et à en tester de nouveaux. Leur nombre croissant conduit à une situation de rente. L’entreprise peut alors gérer les coûts à engager pour répondre à leurs besoins, et l’entreprise bénéficie pleinement du « bouche à oreille ».
Pour aller plus loin vous pouvez utilement consulter le lien suivant : cliquez ici
La relation client-fournisseur a historiquement connu différentes étapes, passant successivement ces 50 dernières années du fournisseur roi, à l’ère du commercial conquistador, puis du produit « miracle », puis du client roi, pour finalement arriver actuellement au temps du partenariat et de la fidélisation.
Toute démarche partenariale de la relation client, démarre par l’identification et le développement d’actions pour mieux connaître les clients, afin de construire avec chacun d’eux une relation individualisée. Or dans de nombreuses entreprises le client est encore méconnu, même si la connaissance client est une « priorité » déclarée par plus de 90% des entreprises. L’intérêt de connaître ses clients est de pouvoir répondre à leurs attentes et de maîtriser la relation. La vente qui constitue le point final d’une approche commerciale doit, dans le cas d’une approche partenariale, être inscrite dans la durée.
La segmentation est une des voies pour mieux connaître ses clients. Elle permet un découpage de la population en sous-ensembles homogènes, par buts économiques. Il existe différentes approches de la segmentation : a priori (utilisation de critères basiques – homme/femme, CSP, …), supervisée (détermination guidée des groupes auxquels on souhaite aboutir), ou non supervisée (recherche ouverte de caractéristiques communes entre clients). Au final on peut viser trois grands types de segmentation fondés sur le besoin, la rentabilité ou le canal.
Pour segmenter il est possible d’utiliser de nombreux critères démographiques, géographiques, sociaux économiques (régions, villes, âge, sexe, revenu, CSP, …), de personnalité et de styles de vie, de comportement à l’égard du produit, d’attitude psychologique (achat comme moyen d’expression de sa personnalité,…), de situation d’achat, etc. Le choix des critères doit être fait avec beaucoup d’attention car il détermine la segmentation. Après quoi la démarche consiste à décrire les caractéristiques de chaque segment, choisir les segments marketing cibles et définir une stratégie pour chaque segment.
La connaissance client se situe donc au cœur de la démarche partenariale, qui se résume donc à identifier, différencier, communiquer et personnaliser la relation avec les clients pris individuellement ou presque. Au-delà de la définition de stratégie par segment, il convient aussi de tenir compte des segments pour adapter l’organisation, les processus, les schémas d’interaction avec les différents types de clients, et bien entendu les systèmes d’information & de dialogue. Plus précisément la connaissance client va donc servir à fixer le mix marketing, notamment les choix en matière de produit, de prix et de distribution, mais aussi le mix communication, publicité, promotion et relation.
La décision d’achat, comme tout processus de décision est le résultat d’influences diverses, plutôt que de chercher à les manipuler, le rôle du marketing est avant tout de les connaître (freins, besoins, motivations, …), et de faire en sorte que l’entreprise utilise intelligemment cette connaissance. Au cœur de cette approche d’entreprise se trouve l'utilisation d’un entrepôt de données clients, qui permet d'établir et de gérer dans le temps des contacts personnels et différenciés, entre l'entreprise et ses clients ou prospects.
Pour aller plus loin vous pouvez utilement consulter le site suivant : cliquez ici
Le domaine de la confidentialité de l'information concerne les processus de collecte et de diffusion de données, il présente de nombreuses dimensions : attentes du public en matière de protection de la vie privée, aspects juridiques, politiques et technologiques. La préoccupation de la confidentialité voit le jour dès que des informations nominatives sont collectées et stockées sous quelque forme que ce soit, numérique ou autre. La divulgation inappropriée d’informations nominatives peut engendrer des atteintes graves à la vie privée.
Des manquements à la confidentialité peuvent être initiés à partir de nombreuses sources, telles que : les dossiers médicaux, les enquêtes et les procédures de la justice pénale, les transactions avec les institutions financières, et tous les dossiers contenant des données clés (notamment géographiques, biologiques, etc.). Le défi de la confidentialité des données est d’arriver à gérer et à partager des données tout en protégeant les informations nominatives.
Sur internet les personnes peuvent être amenées à stocker, afficher, partager elles-mêmes des données qui relèvent de la sphère privée et à plus ou moins bien maîtriser la diffusion de ces informations. C’est en particulier le cas sur les réseaux sociaux où sont généralement fournis tous les éléments permettant une identification très précise d’une personne physique. Un certain nombre d'experts dans le domaine de la sécurité internet disent d’ailleurs que la vie privée n'existe pas sur internet.
Les entreprises commerciales exploitent particulièrement à partir d’internet de nombreuses informations sur les produits ou services qui intéressent les personnes, sur les sites visités, les paniers abandonnés, les transactions effectuées, les commentaires laissés, les tweets diffusés, etc. Tous ces éléments révèlent beaucoup de choses sur les personnes, et les entreprises peuvent utiliser ces informations pour cibler les individus et personnaliser leur approche marketing en intégrant les préférences personnelles. Dans une vision bisousnours de la société, toutes ces pratiques sont innocentes.
Un grand domaine de soucis en matière de confidentialité est celui des données financières. Les informations sur les transactions financières d'une personne, le montant des actifs, le détail des actions ou des fonds détenus, les emprunts, ..., sont autant d’informations sensibles qu’il convient de très bien protéger. Au-delà des traditionnelles extorsions fondées sur l’exploitation des numéros de compte ou des numéros de cartes de crédit, des criminels qui arrivent à appréhender suffisamment d’informations sur une victime, peuvent monter des fraudes de grande envergure, en commençant par exemple par usurper l’identité de quelqu’un grâce à tous les détails que la victime a elle-même fournis, en particulier sur les réseaux sociaux.
Pour aller plus loin sur le sujet vous pouvez utilement lire mes autres propos sur la protection de la vie privée, sur la façon de gérer les données nominatives, sur comment concilier marketing personnalisé et protection de la vie privée pour que l’entreprise ne soit pas perçue comme faisant partie des big brothers : cliquez ici
Des manquements à la confidentialité peuvent être initiés à partir de nombreuses sources, telles que : les dossiers médicaux, les enquêtes et les procédures de la justice pénale, les transactions avec les institutions financières, et tous les dossiers contenant des données clés (notamment géographiques, biologiques, etc.). Le défi de la confidentialité des données est d’arriver à gérer et à partager des données tout en protégeant les informations nominatives.
Sur internet les personnes peuvent être amenées à stocker, afficher, partager elles-mêmes des données qui relèvent de la sphère privée et à plus ou moins bien maîtriser la diffusion de ces informations. C’est en particulier le cas sur les réseaux sociaux où sont généralement fournis tous les éléments permettant une identification très précise d’une personne physique. Un certain nombre d'experts dans le domaine de la sécurité internet disent d’ailleurs que la vie privée n'existe pas sur internet.
Les entreprises commerciales exploitent particulièrement à partir d’internet de nombreuses informations sur les produits ou services qui intéressent les personnes, sur les sites visités, les paniers abandonnés, les transactions effectuées, les commentaires laissés, les tweets diffusés, etc. Tous ces éléments révèlent beaucoup de choses sur les personnes, et les entreprises peuvent utiliser ces informations pour cibler les individus et personnaliser leur approche marketing en intégrant les préférences personnelles. Dans une vision bisousnours de la société, toutes ces pratiques sont innocentes.
Un grand domaine de soucis en matière de confidentialité est celui des données financières. Les informations sur les transactions financières d'une personne, le montant des actifs, le détail des actions ou des fonds détenus, les emprunts, ..., sont autant d’informations sensibles qu’il convient de très bien protéger. Au-delà des traditionnelles extorsions fondées sur l’exploitation des numéros de compte ou des numéros de cartes de crédit, des criminels qui arrivent à appréhender suffisamment d’informations sur une victime, peuvent monter des fraudes de grande envergure, en commençant par exemple par usurper l’identité de quelqu’un grâce à tous les détails que la victime a elle-même fournis, en particulier sur les réseaux sociaux.
Pour aller plus loin sur le sujet vous pouvez utilement lire mes autres propos sur la protection de la vie privée, sur la façon de gérer les données nominatives, sur comment concilier marketing personnalisé et protection de la vie privée pour que l’entreprise ne soit pas perçue comme faisant partie des big brothers : cliquez ici
Il est essentiel de bien comprendre l’intérêt d’une bonne qualité des données, ses effets en termes de coûts et d’efficacité. La qualité des données est très importante pour les analyses qui visent à éclairer les décisions, pour la gestion des opérations, pour la relation client par exemple, elle participe grandement au succès de l’entreprise. Mais au sein de la plupart des organismes, sous la pression des objectifs de réduction des coûts, la qualité est sous financée, abordée de façon parcellaire, sans vision d’ensemble, ni perspective de long terme.
La gestion de la qualité des données démarre avec la définition des données, elle continue avec la maîtrise des processus de création, de mise à jour et de transformation tout au long du cycle de vie des données. Les erreurs qui affectent les données peuvent être faites à n’importe quel moment de la chaîne d’information, et plus particulièrement lorsque les données sont utilisées dans d’autres processus que celui où elles ont été créées. Le management de la qualité des données est donc complexe, et nécessite de mobiliser de nombreux acteurs de tous les horizons de l’entreprise (informaticiens, utilisateurs métier opérationnels, analystes, etc.)
L’identification des sources de données de mauvaises qualité est une condition nécessaire et un préalable indispensable à toute initiative d’amélioration, mais encore faut-il que les enjeux, les gains espérés, soient suffisamment élevés pour justifier des coûts souvent importants. Cependant les fortes demandes d’accès et d’analyse des données auxquelles les systèmes d’information doivent faire face aujourd’hui, notamment en provenance des directions, créent une exigence très forte quant à la qualité des données délivrées. Ainsi dans de nombreuses entreprises les données sont considérées comme une ressource précieuse, essentielle même, pour des décisions pouvant avoir un impact fort sur la marche des affaires.
Lorsque des études sont faites à l’intérieur des entreprises sur ce thème de la qualité des données, les répondants disent régulièrement qu’ils n’ont pas une vision claire des rôles, des responsabilités, des processus et des coûts. Dans ces conditions, pour répondre aux problèmes de qualité des données et mieux profiter d’une vision d’ensemble des données de l’entreprise, de nombreuses sociétés mettent en place une équipe de gestion de la qualité des données. Cette équipe de gestion a pour objectif de permettre une bonne exploitation des informations-clés d’une société. Multifonctionnelle elle réunit des représentants de chaque ligne d’activités et de chaque fonction de l’entreprise. Ils sont chargés de gérer les données et les informations pour l’ensemble de la société. Des représentants des services informatiques fournissent support et conseils à l’organisation sur de nombreux points, et plus particulièrement ceux liés à l’utilisation des outils d’infrastructure.
Pour aller plus loin sur le sujet vous pouvez utilement consulter mes autres articles sur la qualité des données dans le système d’information décisionnel : cliquez ici
Les données de référence sont fondamentales pour les systèmes d’information des entreprises, elles doivent être uniformisées et partagées par toutes les applications et tous les acteurs. Mais force est de constater que la plupart du temps les données sont hétérogènes, dispersées dans les applications et que les différents acteurs privilégient leurs façons d’appeler les données au détriment d’un langage commun.
Une bonne gestion des données de référence est intéressante pour les différentes fonctions de l’entreprise, pour gérer de façon homogène les clients à travers tous les canaux d’interaction, pour gérer les produits tout au long de leur cycle vie de leur production jusqu’à leur destruction en passant par leur maintenance, pour gérer les données financières notamment lors des opérations d’acquisition ou de réorganisation, pour gérer la chaîne d’approvisionnement, pour toutes les activités d’analyse de données, de reporting, de tableaux de bord, etc.
La première chose à faire pour mettre en place un système de gestion des données de référence, est de définir une gouvernance des données, concrètement il s’agit d’identifier les propriétaires des objets et de définir les règles liées à l’ajout, la modification ou encore la mise à disposition des données de référence au sein de l’entreprise. De façon plus précise il s’agit d’identifier par domaine de gestion les données de références à gérer, de prendre en compte tous les systèmes sources, de collecter ces données, de définir les formats du langage commun, ainsi que des règles de transformation, d’administration et de distribution des données de référence.
La synchronisation des données de référence peut s’effectuer de plusieurs manières différentes. Par exemple la synchronisation de chaque système est assurée via des scripts ou des saisies manuelles, certains systèmes peuvent être définis comme maître pour certaines données, ou les données maîtresses sont gérées dans un entrepôt de données, ou on utilise une application spécifique dédiée, qui gère à la fois les données maîtresses et la synchronisation. C’est cette dernière solution qui tend à se développer de plus en plus, car elle offre une grande souplesse. Sauf exception il convient certainement de bannir les solutions partielles ne gérant que les données client ou les données produit.
La gestion des données de référence a donc pour intérêt d’améliorer la qualité de l’information, elle doit concerner tous les systèmes de l’entreprise, que ce soient les applications transactionnelles ou les applications décisionnelles. Il est certain qu’une mauvaise gestion de ces données peut coûter très cher. Il est donc absolument indispensable de sensibiliser les métiers aux enjeux, de voir avec eux tous les avantages d’une bonne gestion, et de définir la bonne gouvernance nécessaire pour créer, collecter, nettoyer, maintenir, publier et auditer les données de références.
Pour aller plus loin, vous pouvez utilement consulter mes autres propos sur ce sujet clé de la gestion des données de référence (données de référence, gérer l’ADN du système décisionnel, gérer le référentiel métier dans l’entrepôt de données, MDM où en sommes-nous ?) : cliquez ici.
Une bonne gestion des données de référence est intéressante pour les différentes fonctions de l’entreprise, pour gérer de façon homogène les clients à travers tous les canaux d’interaction, pour gérer les produits tout au long de leur cycle vie de leur production jusqu’à leur destruction en passant par leur maintenance, pour gérer les données financières notamment lors des opérations d’acquisition ou de réorganisation, pour gérer la chaîne d’approvisionnement, pour toutes les activités d’analyse de données, de reporting, de tableaux de bord, etc.
La première chose à faire pour mettre en place un système de gestion des données de référence, est de définir une gouvernance des données, concrètement il s’agit d’identifier les propriétaires des objets et de définir les règles liées à l’ajout, la modification ou encore la mise à disposition des données de référence au sein de l’entreprise. De façon plus précise il s’agit d’identifier par domaine de gestion les données de références à gérer, de prendre en compte tous les systèmes sources, de collecter ces données, de définir les formats du langage commun, ainsi que des règles de transformation, d’administration et de distribution des données de référence.
La synchronisation des données de référence peut s’effectuer de plusieurs manières différentes. Par exemple la synchronisation de chaque système est assurée via des scripts ou des saisies manuelles, certains systèmes peuvent être définis comme maître pour certaines données, ou les données maîtresses sont gérées dans un entrepôt de données, ou on utilise une application spécifique dédiée, qui gère à la fois les données maîtresses et la synchronisation. C’est cette dernière solution qui tend à se développer de plus en plus, car elle offre une grande souplesse. Sauf exception il convient certainement de bannir les solutions partielles ne gérant que les données client ou les données produit.
La gestion des données de référence a donc pour intérêt d’améliorer la qualité de l’information, elle doit concerner tous les systèmes de l’entreprise, que ce soient les applications transactionnelles ou les applications décisionnelles. Il est certain qu’une mauvaise gestion de ces données peut coûter très cher. Il est donc absolument indispensable de sensibiliser les métiers aux enjeux, de voir avec eux tous les avantages d’une bonne gestion, et de définir la bonne gouvernance nécessaire pour créer, collecter, nettoyer, maintenir, publier et auditer les données de références.
Pour aller plus loin, vous pouvez utilement consulter mes autres propos sur ce sujet clé de la gestion des données de référence (données de référence, gérer l’ADN du système décisionnel, gérer le référentiel métier dans l’entrepôt de données, MDM où en sommes-nous ?) : cliquez ici.
Dans le cadre d’un système d’information, les modèles ont pour objectif de structurer les informations et activités d'une organisation : données, traitements, et flux d'informations entre entités. De façon plus précise un modèle de données, est une représentation de la définition des différentes données (attributs) dans une organisation et comment ces attributs se rapportent les uns aux autres. Un système de base de données a de multiples modèles de données : physiques, logiques et sémantiques.
Les modèles logiques de données de Teradata par industrie servent à répondre aux questions des métiers comme les modèles des applications opérationnelles servent à supporter les processus couverts. Tout comme les plans d’un immeuble décrivent l’agencement détaillés des étages, le MLD décrit les dépendances ou relations entre les différentes données du système d'information (par exemple : le client, la commande, la ligne de commande, etc.), ainsi que la volumétrie, la structure et l'organisation des données telles qu'elles pourront être implémentées. Lorsque le MLD est défini, il est possible de connaître la liste exhaustive des tables qu’il faut créer dans une base de données relationnelle.
De façon plus détaillée, le modèle logique de données permet donc de saisir avec exactitude les besoins d'information, les règles et politiques qui régissent l'entreprise. Il est utilisé pour créer le modèle physique, est indépendant de la plate-forme sur laquelle il va être implémenté, ne change que lorsque le métier change, se doit d’être compris par les utilisateurs métier et enfin permet au système d’information d’être stable, fiable, accessible et pérenne.
Un MLD présente de nombreux avantages comme le fait qu’il reflète les opérations et les règles de l’entreprise (la vérité). Etant construit en fonction des besoins des utilisateurs métier et non en fonction de considérations purement techniques, il permet de centrer les analyses sur ce qui est important pour l'entreprise, d’appréhender des données individuellement ou en relation avec les autres. De par sa construction il élimine les redondances et donc de multiples versions de la vérité. Il crée une base stable pour la croissance future, il facilite la compréhension commune des enjeux des affaires et des priorités, il conduit au développement d’un langage commun, il améliore les communications, les échanges d'information entre les métiers et l’informatique et au final il favorise le travail d’équipe et le consensus.
La mise ne œuvre d’un modèle métier comme ceux de Teradata est rapide, généralement c’est l’affaire de quelques semaines. Ces modèles permettent d’accélérer les projets, en facilitant l’identification, la compréhension, la modélisation des données à récupérer, tout en réduisant considérablement les risques. Pour aller plus loin vous pouvez utilement lire mes autres articles au sujet de la modélisation des entrepôts de données : cliquez ici
Les modèles logiques de données de Teradata par industrie servent à répondre aux questions des métiers comme les modèles des applications opérationnelles servent à supporter les processus couverts. Tout comme les plans d’un immeuble décrivent l’agencement détaillés des étages, le MLD décrit les dépendances ou relations entre les différentes données du système d'information (par exemple : le client, la commande, la ligne de commande, etc.), ainsi que la volumétrie, la structure et l'organisation des données telles qu'elles pourront être implémentées. Lorsque le MLD est défini, il est possible de connaître la liste exhaustive des tables qu’il faut créer dans une base de données relationnelle.
De façon plus détaillée, le modèle logique de données permet donc de saisir avec exactitude les besoins d'information, les règles et politiques qui régissent l'entreprise. Il est utilisé pour créer le modèle physique, est indépendant de la plate-forme sur laquelle il va être implémenté, ne change que lorsque le métier change, se doit d’être compris par les utilisateurs métier et enfin permet au système d’information d’être stable, fiable, accessible et pérenne.
Un MLD présente de nombreux avantages comme le fait qu’il reflète les opérations et les règles de l’entreprise (la vérité). Etant construit en fonction des besoins des utilisateurs métier et non en fonction de considérations purement techniques, il permet de centrer les analyses sur ce qui est important pour l'entreprise, d’appréhender des données individuellement ou en relation avec les autres. De par sa construction il élimine les redondances et donc de multiples versions de la vérité. Il crée une base stable pour la croissance future, il facilite la compréhension commune des enjeux des affaires et des priorités, il conduit au développement d’un langage commun, il améliore les communications, les échanges d'information entre les métiers et l’informatique et au final il favorise le travail d’équipe et le consensus.
La mise ne œuvre d’un modèle métier comme ceux de Teradata est rapide, généralement c’est l’affaire de quelques semaines. Ces modèles permettent d’accélérer les projets, en facilitant l’identification, la compréhension, la modélisation des données à récupérer, tout en réduisant considérablement les risques. Pour aller plus loin vous pouvez utilement lire mes autres articles au sujet de la modélisation des entrepôts de données : cliquez ici
La plupart des entreprises visent un gain de performance global grâce à l’alignement des ressources humaines avec les objectifs stratégiques. Dans cet esprit, un bon système d’information décisionnel des ressources humaines doit permettre de fonder la démarche stratégique des RH, en aidant les responsables à anticiper et préparer l’entreprise aux évolutions de son environnement, notamment en répondant aux évolutions prévisibles et nécessaires. Il doit en outre aider les responsables à s’assurer que les ressources sont obtenues et utilisées avec efficience et efficacité pour réaliser les objectifs de l’entreprise.
Ainsi il est certain que pour bien piloter la gestion et le management des RH, il est indispensable que les décisions puissent être préparées et fondées sur des faits, or les systèmes d’information RH sont encore majoritairement très hétéroclites, peu intégrés, centrés sur la réalisation de la paye et de la gestion des temps. Même si le décisionnel RH est ancien et que depuis très longtemps les fournisseurs de progiciels et les prestataires de services proposent des solutions, souvent seuls les effectifs et la masse salariale font l’objet d’analyses régulières.
Il est donc très rare de trouver des entreprises qui ont un système d’information décisionnel RH développé abordant les différents domaines des RH. Les principaux champs d’analyse d’un SDRH devraient être : la gestion des temps et de l’absentéisme, la gestion des effectifs et des affectations, la gestion de la productivité, la gestion de la masse salariale et des rémunérations, la gestion de la formation, la gestion des compétences, la gestion des recrutements. Pour les grandes entreprises il peut être particulièrement intéressant de développer des analyses (rétrospectives, prévisions, simulations) de leur problématique RH en fonction des localisations, des métiers, des fonctions, des rythmes de travail, des coefficients hiérarchiques, etc.
De nombreuses solutions décisionnelles sont proposées, voir ci-dessous une revue effectuée par le Journal du Net, mais si la qualité des applications est importante, la qualité des données est primordiale. C’est pourquoi il convient d’aborder son décisionnel RH par la réalisation d’un entrepôt de données qui a pour vocation d’intégrer toutes les données RH, d’en garantir la qualité et l’accessibilité. Ici le mieux est d’ajouter un domaine RH à votre entrepôt de données d’entreprise, de façon à mutualiser les moyens et ouvrir des possibilités de croisement de données avec les autres domaines : finance, production, etc...
Pour aller plus loin sur ce sujet vous pouvez utilement lire les articles ci-dessous :
Autre article sur le décisionnel RH : cliquez ici
Entrepôt de données d’entreprise : cliquez ici
Applications décisionnelles RH : cliquez ici
Ainsi il est certain que pour bien piloter la gestion et le management des RH, il est indispensable que les décisions puissent être préparées et fondées sur des faits, or les systèmes d’information RH sont encore majoritairement très hétéroclites, peu intégrés, centrés sur la réalisation de la paye et de la gestion des temps. Même si le décisionnel RH est ancien et que depuis très longtemps les fournisseurs de progiciels et les prestataires de services proposent des solutions, souvent seuls les effectifs et la masse salariale font l’objet d’analyses régulières.
Il est donc très rare de trouver des entreprises qui ont un système d’information décisionnel RH développé abordant les différents domaines des RH. Les principaux champs d’analyse d’un SDRH devraient être : la gestion des temps et de l’absentéisme, la gestion des effectifs et des affectations, la gestion de la productivité, la gestion de la masse salariale et des rémunérations, la gestion de la formation, la gestion des compétences, la gestion des recrutements. Pour les grandes entreprises il peut être particulièrement intéressant de développer des analyses (rétrospectives, prévisions, simulations) de leur problématique RH en fonction des localisations, des métiers, des fonctions, des rythmes de travail, des coefficients hiérarchiques, etc.
De nombreuses solutions décisionnelles sont proposées, voir ci-dessous une revue effectuée par le Journal du Net, mais si la qualité des applications est importante, la qualité des données est primordiale. C’est pourquoi il convient d’aborder son décisionnel RH par la réalisation d’un entrepôt de données qui a pour vocation d’intégrer toutes les données RH, d’en garantir la qualité et l’accessibilité. Ici le mieux est d’ajouter un domaine RH à votre entrepôt de données d’entreprise, de façon à mutualiser les moyens et ouvrir des possibilités de croisement de données avec les autres domaines : finance, production, etc...
Pour aller plus loin sur ce sujet vous pouvez utilement lire les articles ci-dessous :
Autre article sur le décisionnel RH : cliquez ici
Entrepôt de données d’entreprise : cliquez ici
Applications décisionnelles RH : cliquez ici
Dans le contexte de globalisation d’aujourd’hui, les exigences en matière d’approvisionnement des grandes entreprises sont extrêmement élevées, au point que des sociétés spécialisées voient le jour comme Vector SCM, qui gère 12 000 sources d’approvisionnement, 1200 transporteurs, charge 8 millions de véhicules par an, dessert 12 500 points de livraison et permet à de nombreuses entreprises de remplir les exigences logistiques de leurs grands donneurs d’ordres.
L’optimisation des chaînes d’approvisionnement est un enjeu dans la recherche d’avantages concurrentiels. Par exemple dans le secteur de la distribution une entreprise comme Wal-Mart a en partie construit son succès sur la création d’une chaîne d’approvisionnement particulièrement remarquable, qui entre autre a su remplacer des stocks par de l’information : plus vite les magasins envoient des informations sur ce que les clients achètent, plus vite l’information peut être transmise aux fabricants et aux concepteurs (cf. Zara), plus vite la chaîne d’approvisionnement peut réagir.
Cependant la plupart du temps dans les entreprises, la chaîne d’approvisionnement souffre de cloisonnements, car l’intégration et la synchronisation des flux physiques, des flux d’informations et des flux financiers n’est pas optimale. Or la réduction des stocks et l’optimisation de la chaîne d’approvisionnement ne peuvent se concevoir sans une bonne gestion de l’information. Au-delà des traditionnels systèmes opérationnels qui permettent d’automatiser les processus, il convient sans aucun doute de s’appuyer sur un système décisionnel adapté. Ce dernier doit être fondé sur un entrepôt de données qui a pour vocation d’intégrer toutes les données logistiques internes ou externes, et offrir à toutes les parties prenantes les visions historiques, opérationnelles, prévisionnelles ou de simulation dont elles ont besoin.
Le système décisionnel doit intégrer des données de toutes les applications opérationnelles concernées, à savoir de façon non limitative, des données de : CRM – Customer Relation Management, DP&F – Demand Planning and Forecasting, SRM – Supplier Relation Management, APS – Advanced Planning & Scheduling, ERP – Enterprise Resources Planning, TMS – Transportation Management System, WMS – Warehouse Management System, DCS – Distributed Controlled System, MES – Manufacturing Execution System, etc.
Pour aller plus loin, vous pouvez utilement lire mon livre blanc sur la chaîne d’approvisionnement. Cliquez ici
Les constructeurs automobiles font face aujourd'hui à un marché mondial hyper concurrentiel, à des coûts de développement de plus en plus élevés, à une demande des clients qui change rapidement, et à des réglementations toujours plus strictes. En conséquence, pour mieux gérer le cycle de vie des automobiles, les constructeurs ont besoin d’intégrer de plus en plus de données sur les véhicules de leur conception à leur destruction, et de plus en plus en particulier des données produites par les véhicules sur la route.
Pour tirer parti de toutes les données concernant les véhicules, et en particulier celles produites sur le terrain, les entreprises doivent être capable d'agréger, d'intégrer et d'analyser des volumes de données très volumineux provenant de nombreuses sources disparates, puis de réagir quelques fois prestement en fonction des résultats. C'est un formidable défi, et tous les constructeurs en sont encore au stade de l’apprentissage, et à la recherche de pistes pour exploiter ce vaste ensemble de données qui nécessite la combinaison d’une infrastructure informatique spécifiquement adaptée et des analystes métiers particulièrement compétents.
La plupart des constructeurs automobiles consolident depuis très longtemps les données relatives aux configurations des véhicules et aux garanties, pour alimenter les réflexions d'ingénierie. Depuis environ dix ans ils ont aussi commencé à recueillir en parallèle les données générées par les capteurs de leurs véhicules, car elles fournissent une vue des performances et des défaillances dans les conditions réelles sur le terrain. C’est dans ce contexte que certains constructeurs ont commencé à développer leur entrepôt d’entreprise afin d’intégrer toutes leurs informations.
La mise en place de ces entrepôts de données d’entreprise commence toujours par une phase de consolidation des systèmes décisionnels préexistants. Cependant n’importe quelle plate-forme ne peut pas fournir les performances requises pour assumer les analyses sur les volumes de données en question. C’est pourquoi Teradata a été sollicité par de nombreux constructeurs comme Daimler, Ford, Tata, ou Volvo pour n’en citer que quelques-uns. Outre la mise à disposition de nouvelles données et l’amélioration des performances de réponse aux multiples requêtes, il s’agit aussi de donner un accès à des centaines de nouveaux utilisateurs dans la conception des produits, la fabrication, l’assurance qualité, et l'administration de la garantie. De tout cela il résulte une grande variété d'améliorations impactant de nombreux processus, comme par exemple l’accélération des réponses aux problèmes des véhicules, l’amélioration de la qualité et de certaines fonctionnalités à travers une meilleure gestion du cycle de vie des produits, la réduction des coûts, une meilleur gestion des remboursements de garantie, et par-dessus tous la création de nouveaux produits innovants.
Dans ces entreprises dotées d’un entrepôt de données d’entreprise, la réponse à toute nouvelle question commence maintenant toujours par une exploration profitable des données pertinentes, et chaque hypothèse peut être testée par rapport aux données avant toute décision. Dans tout processus de réponse à une problématique, les données sont utilisées pour déterminer les enjeux, pour hiérarchiser les questions et définir le niveau des réponses. Au final cela aide tout le monde à rester focalisé sur le déploiement efficace des choix stratégiques, comme par exemple de porter une attention maximum à tout ce qui touche le plus directement l'expérience client.
Pour aller plus loin vous pouvez utilement lire mes autres articles consacrés aux fonctions achat, qualité, garantie, maintenance et MRO : cliquez ici
> A LIRE EN CE MOMENT SUR DECIDEO
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
-
La révolution des élites : quand l'IA redistribue le pouvoir
-
Informatica apporte sa contribution aux mégatendances de Microsoft Azure (IA générative, Microsoft Fabric et format en tables de données ouvertes) avec de nouvelles fonctionnalités
-
Dell Technologies présente les dernières innovations de Dell AI Factory pour propulser l’IA en entreprise
-
Eviden va tripler la capacité de calcul de la Finlande avec un nouveau supercalculateur d’IA
-
e-Attestations devient Aprovall
-
Neo4j dépasse les 200 millions de dollars de chiffre d’affaires et accélère son leadership dans le domaine de la GenAI grâce à sa technologie de graphes
-
Precisely nommé leader dans le rapport 2024 d’IDC MarketScape : Worldwide Data Intelligence Platform Software
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques