Pour bien gérer la fidélisation de la clientèle, il faut acquérir une connaissance approfondie de l’identité des clients, puis développer et utiliser des modèles qui permettent de prévoir selon toute probabilité, quels sont les clients susceptibles de passer à la concurrence. En recourant à cette méthode ainsi qu’à des modèles de prévision de la rentabilité potentielle, l’entreprise peut prendre des décisions motivées sur le profil des clients qu’il conviendrait de fidéliser. Elle peut également considérer leur potentiel individuel d’amélioration en termes de profits générer, et prendre des décisions quant à la façon de répondre à leurs besoins.
L’identification des changements dans le comportement d’un client est l’indicateur fondamental d’une défection potentielle (changement d’adresse, demande d’informations sur des produits et services, récriminations), il est temps alors de prendre les mesures utiles pour éviter le départ du client. Une théorie veut, que nombreux sont les clients qui ont décidé de quitter une entreprise plusieurs mois avant de le faire concrètement, c’est pourquoi il faut prendre des dispositions le plus tôt possible. Cela dit ce type de mesures ne peut aboutir à une réussite profitable, que si l’entreprise est capable de dire quels sont les clients qu’il vaut la peine de conserver du point de vue de la rentabilité actuelle ou potentielle. C’est là que se manifeste à nouveau l’importance d’une bonne compréhension des facteurs qui induisent la rentabilité, dans le cas de certains clients il est intéressant d’investir massivement pour les encourager à rester, alors qu’il est préférable d’en laisser partir d’autres.
La preuve est également faite que la fidélisation augmente en proportion directe du nombre de produits que détient un client. D’autres études ont montré que presque 75% de tous les transfuges, ne détenaient qu’un seul produit l’année précédant leur passage à la concurrence. C’est en partie pour cette raison, que certaines institutions financières - en particulier les banques - ont lancé des programmes de fidélisation, qui permettent aux clients un gain en valeur grâce à des remises sur les produits qu’ils sont susceptibles d’acheter en complément ou sur des biens et services qu’ils pourraient acquérir auprès de tiers partenaires, par exemple un programme permettant de gagner des Miles. Ces programmes ont pour but de renforcer la relation, en l’élargissant soit par la multiplication du nombre de produits achetés, soit par la somme dépensée, ou simplement en récompensant la fidélité du client par des remises consenties ailleurs.
La détention d’informations d’aide à la décision de qualité, améliore considérablement l’efficacité opérationnelle et la précision des analyses que les entreprises d’assurances, par exemple, peuvent faire. Cet avantage vaut pour tous les responsables, pour les courtiers, pour les gestionnaires de risques, les régleurs de sinistres et les directeurs financiers. Cette fonction d’intégration s’étend à différentes activités d’analyse : de la surveillance des performances globales de l’entreprise, ou des tendances en matière de sinistres et aux stratégies de tarification individuelle, jusqu’au suivi des schémas de paiement, à la simulation de nouveaux développements commerciaux. Pour réussir dans ce domaine, il est indispensable de savoir quels clients cibler et d’évaluer leur réaction à l’offre qui leur est faite. Mobiliser les budgets marketing pour solliciter des clients non profitables ou marginaux n’est pas une bonne affaire. En utilisant cet actif de l’entreprise que représente l’information, les assureurs peuvent mieux « coller » aux besoins de leurs clients, il en résulte des services davantage calqués sur le client qui conduiront à une plus grande satisfaction de ce dernier.
Une meilleure compréhension du client permet à l’entreprise de cibler plus efficacement, les promotions qu’elle destine au bon moment à des prospects judicieusement choisis et par le biais des canaux adéquats. En combinant les informations générées en interne et des sources de données extérieures, les frais d’acquisition des clients peuvent être réduits grâce à un marketing plus efficacement ciblé. Les institutions financières qui ont opté pour un entrepôt de données d’entreprise en tant qu’outil de support à leur approche marketing, ont vu leurs activités se développer et leur revenu s’accroître tout en constatant une baisse des coûts, une augmentation tangible des bénéfices, ainsi que des avantages supplémentaires liés à l’amélioration du service à la clientèle et au moral des personnels.
Par exemple, une banque a développé une panoplie complète de modèles qui lui permet de prévoir la propension de chaque client, à acheter chaque produit de la gamme qui lui est proposée. Cette banque a ainsi pu présélectionner tous les clients de chacune de ses quatre lignes de crédit - découvert, carte de crédit, prêt à découvert et carte de débit. L’institution a su prendre en compte les schémas comportementaux récents et les modèles de propension à la vente croisée, mais a également tenu compte des demandes avant approbation. Cette approche qui combine le marketing et la gestion du risque, a permis à la banque de commencer à développer une nouvelle manière de planifier ses activités. Pour elle il s’agit de rechercher « une part de client » plus importante, et de mieux sélectionner les moyens pour atteindre ses objectifs en matière de chiffre d’affaires.
De façon générale, une activité marketing fondée sur un entrepôt de données d’entreprise se traduit par une augmentation des taux de conversion. Les résultats concrets sont variables d’un produit à l’autre, mais il faut s’attendre à voir le taux de réponse constaté avant l’adoption de cette approche être multiplié par deux voire par quatre. En ce qui concerne la planification, il est désormais possible de faire appel à des modèles pour simuler les mix de produits qu’ils seraient possible de vendre. Cet exercice aide l’entreprise à identifier les lacunes dans la gamme de produits, ainsi que les clients dont le potentiel reste faible. Un ensemble d’objectifs mieux ciblés, peut alors être défini pour affiner les modalités de vente et les activités de marketing, en tenant compte des objectifs de rentabilité plutôt que des ventes brutes.
En ce qui concerne le marketing ciblé, plus le contact est opportun et pertinent, plus il est probable de voir les clients répondre et acheter un produit ou un service nouveau ou amélioré. Deux campagnes particulières peuvent être citées à titre d’exemple de la réussite d’un assureur. Le taux de réponse aux campagnes pour amener à souscrire un plan d’épargne en actions (PEA), des clients qui avaient déjà une assurance vie, n’était habituellement que de 1 %. Ce chiffre justifiait déjà le coût de la campagne. Après avoir fait le choix d’un marketing fondé sur une base de données, la campagne a généré des taux de réponse convertis de l’ordre de 3 % à 4 %. De la même façon, lorsqu’il a formulé à l’intention de ses clients investisseurs son offre de plan d’épargne en actions (PEA) pour le nouvel exercice financier, ce même assureur a obtenu des taux de réponse entre 20 % et 25 % - qu’il faut rapprocher de son meilleurs résultat avant qu’il n’opte pour cette approche : 8 %. Compte tenu du succès croissant de cette approche dans la génération de taux de réponse élevés, cet assureur a prévu d’investir dans le marketing direct plus qu’en publicité pure à la télévision.
Pour découvrir d’autres exemples dans différentes industries : cliquez ici
Rédigé par Michel Bruley le Vendredi 15 Juin 2012 à 11:04
|
Permalien
|
{1}

La révolution marketing de la fin des années 60 a consisté à placer le marché au centre des affaires et s’est développée comme une approche multidisciplinaire pour comprendre le comportement des consommateurs. D’emblée tout cela a fait l’objet de recherche complexe mais les systèmes d’information de l’époque n’apportaient pas facilement un support efficace pour capitaliser la connaissance des clients ou pour agir sur les marchés. Quand dans les années 90 des moyens informatiques ont été déployés dans toutes les fonctions de l’entreprise, dans le monde marketing vente, ils ont été surtout employés pour supporter les actions de marketing direct, de vente ou de télémarketing et assez peu pour analyser les clients. C’est là l’une des raisons de l’échec de nombreux projets de CRM qui se sont contentés d’automatiser des pratiques existantes sans apporter de changement perceptible et significatif pour les clients.
Créer et capturer la valeur c’est l’essence de l’approche CRM et pour cela il convient de bien analyser la valeur vue du client, c'est-à-dire en particulier de bien comprendre le client. Pour ce faire pendant longtemps les entreprises ont fondé cette connaissance sur des études, des sondages, c'est-à-dire des déclarations des clients et des remontées d’informations du terrain via les vendeurs ou les distributeurs. Pour mettre en œuvre un marketing de masse c’était suffisant, mais depuis quelques années et pour supporter un marketing plus segmenté, voire 1:1, elles privilégient les bases de données et l’analyse des comportements réels c'est-à-dire l’analyses des transactions effectuées.
Une bonne compréhension de son client permet d’optimiser le positionnement de l’offre. Il convient d’abord de définir clairement ce qu’est l’offre et de la différencier le plus nettement possible des offres similaires en proposant un bénéfice essentiel aux yeux du client. Ensuite il faut développer et mettre en lumière les relations entre l’offre et les besoins des cibles visées. Enfin il faut défendre méthodiquement son positionnement face aux réactions de la concurrence et aux modes, tout en tenant compte de l’évolution des exigences des clients. Tout ceci fait que pour le marketing le maître mot n’est plus de vendre des produits mais de construire la relation.
Un bon positionnement suppose une bonne connaissance des arbitrages que font les clients au moment d’un achat. Pour ce faire il convient de réaliser des analyses pour obtenir une segmentation du marché qui soit opérationnelle, c'est-à-dire qui permettent de construire la relation et qui n’oublie pas d’intégrer le prix à payer pour atteindre chaque segment et donc mener les stratégies de conquête ou de fidélisation nécessaires. Dans ce domaine de la connaissance client, force est de constater qu’aujourd’hui les approches quantitatives dominent qui cherchent à faire parler les données, et utilisent un arsenal de techniques de plus en plus sophistiquées, avec notamment l’omniprésence du data mining, au détriment des élucubrations qualitatives de créatifs plus moins en phase avec le monde réel.
Le data mining doit permettre d’établir des liens entre des événements de la vie des clients ou des prospects, et les résultats de l’offre de l’entreprise sur le marché. Il ne s’agit plus de se fonder uniquement sur des caractéristiques socio-économiques, mais d’intégrer dans l’analyse des événements de la vie et des affinités diverses comme celles liées aux médias de communication ou aux canaux de distribution. Les possibilités sont extrêmement nombreuses mais souvent rapidement limitées par la disponibilité ou la qualité des informations. Une des erreurs classiques ici est de construire une base de données dédiée au marketing plutôt que de s’appuyer sur un entrepôt de données d’entreprise qui permet d’accompagner la démarche dans toute ses dimensions, de l’analyse client, à l’analyse des résultats de l’entreprise ou de la fonction marketing, en passant par le support aux actions marketing, mais aussi au support des actions des autres fonctions en contact avec le client comme la vente, la comptabilité, l’après-vente, la R&D par exemple.
Au-delà d’un entrepôt de données et de bons outils d’analyse, il convient de disposer de toute une panoplie de moyens pour transformer les transactions en relation. Il faut par exemple et de façon non limitative, des outils spécifiques par canaux d’interaction (force de vente, téléacteur, marketing direct, web), il faut faire le lien avec les systèmes de planification de l’entreprise, avec les systèmes de gestion des ressources et des opérations, avec les systèmes de reporting. Comme il n’existe pas sur le marché de solution d’ensemble suffisamment flexible et performante pour répondre à la diversité des besoins des différents secteurs, les entreprises doivent sélectionner ce qui leur convient et intégrer les solutions retenues.
Pour sélectionner les bons outils, la tâche n’est pas triviale, d’autant plus que les fournisseurs du monde l’IT maîtrisent très bien les techniques de positionnement de leur propre produit et savent développer des concepts valorisants pour promouvoir leur solution. Vu du client il peut en résulter une certaine confusion du fait de la multiplication des sigles utilisant toujours soit le mot marketing soit le mot Client, comme CRM, CRO, CEM, EEM, EMA ou MRM. Aujourd’hui la mode est aux solutions de Marketing Intégrées. Par exemple : cliquez ici
Il a pu être démontré que le comportement passé des êtres humains est l’un des facteurs de prévision les plus fiables de leur comportement futur. C’est pourquoi l’information tirée de l’historique des transactions est déterminante. La réussite future d’une entreprise dépend de l’ampleur de la connaissance qu’elle peut avoir de chaque client individuel, plutôt que de ce qu’elle sait de sa clientèle prise comme un tout. Il faut donc favoriser la pratique de la collecte permanente des informations spécifiques sur les clients, pour enrichir le gisement des données historiques de l’entreprise. Chaque nouvelle rencontre - qu’elle soit le fait du service clients, d’un intermédiaire, ou qu’elle résulte d’un processus de recherche de données - doit être considérée comme une opportunité supplémentaire de collecte d’informations additionnelles. Cette information constitue le fondement d’un actif majeur de l’entreprise, à savoir : les relations qu’elle entretient avec ses clients.
Pour gérer cette information, les entreprises font désormais appel à des entrepôts de données orientés client, dont elles se servent indépendamment de leurs bases de données opérationnelles classiques. En effet, souvent disparates en raison de la structure même des données, les bases de données opérationnelles peuvent limiter la portée de l’analyse orientée client. L’entrepôt de données s’impose donc comme la base indispensable pour atteindre des objectifs commerciaux spécifiques, et pour élaborer des modèles prédictifs, ou en d’autres termes pour procéder de façon radicalement différente du simple stockage de données.
Les entreprises avancées sont maintenant capables de consolider des données structurées ou non, par exemple des noms et des adresses à l’aide de logiciels conçus pour supprimer les données superflues. Grâce à cette « version unique de la vérité », elles peuvent désormais identifier leurs clients en tant qu’individus. Elles peuvent également identifier tous les produits que ces clients ont achetés auprès de l’entreprise et reconnaître les membres séparés d’un même foyer. Depuis combien de temps ce client entretient-il des relations avec l’entreprise ? D’autres membres de la même famille sont-ils également clients ? S’agit-il d’une famille titulaire de un, ou de plusieurs produits ? Ont-ils entretenu des relations avec plus d’un seul intermédiaire ? Utilisent-ils des canaux de distribution différents pour des produits distincts ? Les questions sont innombrables. La seule différence tient au fait qu’il y a désormais des réponses à ces questions. En effet la fouille de données permet d’élaborer des modèles prédictifs, aussi bien pour le marketing direct que pour l’aide à la décision dans différentes fonctions. Dans le même temps il s’avère éminemment profitable pour différentes structures d’une organisation d’utiliser la même information.
Par exemple la direction marketing peut se pencher sur les caractéristiques des individus qui achètent les produits, et non plus s’intéresser seulement aux chiffres d’affaires, à l’âge, ou à la fidélité du client. La direction financière peut commencer à modéliser différents scénarios de coûts basés sur l’activité, sans perturber les transactions en cours et procéder à des analyses de sensibilité, pour tester la fiabilité des différents modèles d’allocation de coûts. Le service client peut faire appel à la technologie pour analyser ses coûts jusqu’au niveau le plus fin, et se servir des résultats pour améliorer l’efficacité de l’entreprise. C’est dans le recours à une utilisation transversale des données de l’entreprise que se trouve en dernière instance l’origine du profit. Lorsqu’une entreprise est capable de savoir qui sont réellement ses clients et quels types d’interactions ils ont avec elle, il lui est plus facile de commercialiser ses produits. De la même façon dès lors qu’il est possible d’identifier avec précision d’où procède le profit au sein de l’entreprise - par segment de marché, par produit, par canal de distribution - les responsables ont un moyen de peser directement sur les profits et non plus seulement sur le chiffre d’affaires.
Cette approche vaut aussi bien pour les entreprises qui opèrent par l’intermédiaire de réseaux de distribution, que pour ceux qui gèrent directement leurs opérations. En effet, l’approche « orientée client » s’applique aux deux niveaux : client final (toute entreprise peut valoriser le travail de son réseau de distribution en l’aidant à mieux comprendre son propre marché), et directement au niveau de la distribution (en ciblant au moment opportun les services adéquats à proposer à des clients spécifiques en fonction de leur rentabilité actuelle et potentielle).
La mutation au profit d’une approche davantage orientée client, constitue une tentative pour reconsidérer tous les aspects de l’activité du point de vue du client. Il ne faut jamais oublier que le but du marketing consiste à générer une valeur que le client puisse percevoir. Dans le cadre des programmes de fidélisation, il faut d’abord évaluer l’identité des clients à conserver, et la raison pour laquelle ils doivent être fidélisés. Que faire à propos des clients marginaux ou de ceux qui sont générateurs de perte pour l’entreprise ? La planification de la fidélisation de la clientèle est le point de départ de la solution et c’est son implémentation qui est source de rentabilité. De façon générale, les clients fidèles sont aussi les clients les plus rentables. Il n’y a aucun coût d’acquisition. Ils ont tendance à acquérir davantage de produits, de services et à en tester de nouveaux. Leur nombre croissant conduit à une situation de rente. L’entreprise peut alors gérer les coûts à engager pour répondre à leurs besoins, et l’entreprise bénéficie pleinement du « bouche à oreille ».
Pour aller plus loin vous pouvez utilement consulter le lien suivant : cliquez ici
Pour gérer cette information, les entreprises font désormais appel à des entrepôts de données orientés client, dont elles se servent indépendamment de leurs bases de données opérationnelles classiques. En effet, souvent disparates en raison de la structure même des données, les bases de données opérationnelles peuvent limiter la portée de l’analyse orientée client. L’entrepôt de données s’impose donc comme la base indispensable pour atteindre des objectifs commerciaux spécifiques, et pour élaborer des modèles prédictifs, ou en d’autres termes pour procéder de façon radicalement différente du simple stockage de données.
Les entreprises avancées sont maintenant capables de consolider des données structurées ou non, par exemple des noms et des adresses à l’aide de logiciels conçus pour supprimer les données superflues. Grâce à cette « version unique de la vérité », elles peuvent désormais identifier leurs clients en tant qu’individus. Elles peuvent également identifier tous les produits que ces clients ont achetés auprès de l’entreprise et reconnaître les membres séparés d’un même foyer. Depuis combien de temps ce client entretient-il des relations avec l’entreprise ? D’autres membres de la même famille sont-ils également clients ? S’agit-il d’une famille titulaire de un, ou de plusieurs produits ? Ont-ils entretenu des relations avec plus d’un seul intermédiaire ? Utilisent-ils des canaux de distribution différents pour des produits distincts ? Les questions sont innombrables. La seule différence tient au fait qu’il y a désormais des réponses à ces questions. En effet la fouille de données permet d’élaborer des modèles prédictifs, aussi bien pour le marketing direct que pour l’aide à la décision dans différentes fonctions. Dans le même temps il s’avère éminemment profitable pour différentes structures d’une organisation d’utiliser la même information.
Par exemple la direction marketing peut se pencher sur les caractéristiques des individus qui achètent les produits, et non plus s’intéresser seulement aux chiffres d’affaires, à l’âge, ou à la fidélité du client. La direction financière peut commencer à modéliser différents scénarios de coûts basés sur l’activité, sans perturber les transactions en cours et procéder à des analyses de sensibilité, pour tester la fiabilité des différents modèles d’allocation de coûts. Le service client peut faire appel à la technologie pour analyser ses coûts jusqu’au niveau le plus fin, et se servir des résultats pour améliorer l’efficacité de l’entreprise. C’est dans le recours à une utilisation transversale des données de l’entreprise que se trouve en dernière instance l’origine du profit. Lorsqu’une entreprise est capable de savoir qui sont réellement ses clients et quels types d’interactions ils ont avec elle, il lui est plus facile de commercialiser ses produits. De la même façon dès lors qu’il est possible d’identifier avec précision d’où procède le profit au sein de l’entreprise - par segment de marché, par produit, par canal de distribution - les responsables ont un moyen de peser directement sur les profits et non plus seulement sur le chiffre d’affaires.
Cette approche vaut aussi bien pour les entreprises qui opèrent par l’intermédiaire de réseaux de distribution, que pour ceux qui gèrent directement leurs opérations. En effet, l’approche « orientée client » s’applique aux deux niveaux : client final (toute entreprise peut valoriser le travail de son réseau de distribution en l’aidant à mieux comprendre son propre marché), et directement au niveau de la distribution (en ciblant au moment opportun les services adéquats à proposer à des clients spécifiques en fonction de leur rentabilité actuelle et potentielle).
La mutation au profit d’une approche davantage orientée client, constitue une tentative pour reconsidérer tous les aspects de l’activité du point de vue du client. Il ne faut jamais oublier que le but du marketing consiste à générer une valeur que le client puisse percevoir. Dans le cadre des programmes de fidélisation, il faut d’abord évaluer l’identité des clients à conserver, et la raison pour laquelle ils doivent être fidélisés. Que faire à propos des clients marginaux ou de ceux qui sont générateurs de perte pour l’entreprise ? La planification de la fidélisation de la clientèle est le point de départ de la solution et c’est son implémentation qui est source de rentabilité. De façon générale, les clients fidèles sont aussi les clients les plus rentables. Il n’y a aucun coût d’acquisition. Ils ont tendance à acquérir davantage de produits, de services et à en tester de nouveaux. Leur nombre croissant conduit à une situation de rente. L’entreprise peut alors gérer les coûts à engager pour répondre à leurs besoins, et l’entreprise bénéficie pleinement du « bouche à oreille ».
Pour aller plus loin vous pouvez utilement consulter le lien suivant : cliquez ici
La relation client-fournisseur a historiquement connu différentes étapes, passant successivement ces 50 dernières années du fournisseur roi, à l’ère du commercial conquistador, puis du produit « miracle », puis du client roi, pour finalement arriver actuellement au temps du partenariat et de la fidélisation.
Toute démarche partenariale de la relation client, démarre par l’identification et le développement d’actions pour mieux connaître les clients, afin de construire avec chacun d’eux une relation individualisée. Or dans de nombreuses entreprises le client est encore méconnu, même si la connaissance client est une « priorité » déclarée par plus de 90% des entreprises. L’intérêt de connaître ses clients est de pouvoir répondre à leurs attentes et de maîtriser la relation. La vente qui constitue le point final d’une approche commerciale doit, dans le cas d’une approche partenariale, être inscrite dans la durée.
La segmentation est une des voies pour mieux connaître ses clients. Elle permet un découpage de la population en sous-ensembles homogènes, par buts économiques. Il existe différentes approches de la segmentation : a priori (utilisation de critères basiques – homme/femme, CSP, …), supervisée (détermination guidée des groupes auxquels on souhaite aboutir), ou non supervisée (recherche ouverte de caractéristiques communes entre clients). Au final on peut viser trois grands types de segmentation fondés sur le besoin, la rentabilité ou le canal.
Pour segmenter il est possible d’utiliser de nombreux critères démographiques, géographiques, sociaux économiques (régions, villes, âge, sexe, revenu, CSP, …), de personnalité et de styles de vie, de comportement à l’égard du produit, d’attitude psychologique (achat comme moyen d’expression de sa personnalité,…), de situation d’achat, etc. Le choix des critères doit être fait avec beaucoup d’attention car il détermine la segmentation. Après quoi la démarche consiste à décrire les caractéristiques de chaque segment, choisir les segments marketing cibles et définir une stratégie pour chaque segment.
La connaissance client se situe donc au cœur de la démarche partenariale, qui se résume donc à identifier, différencier, communiquer et personnaliser la relation avec les clients pris individuellement ou presque. Au-delà de la définition de stratégie par segment, il convient aussi de tenir compte des segments pour adapter l’organisation, les processus, les schémas d’interaction avec les différents types de clients, et bien entendu les systèmes d’information & de dialogue. Plus précisément la connaissance client va donc servir à fixer le mix marketing, notamment les choix en matière de produit, de prix et de distribution, mais aussi le mix communication, publicité, promotion et relation.
La décision d’achat, comme tout processus de décision est le résultat d’influences diverses, plutôt que de chercher à les manipuler, le rôle du marketing est avant tout de les connaître (freins, besoins, motivations, …), et de faire en sorte que l’entreprise utilise intelligemment cette connaissance. Au cœur de cette approche d’entreprise se trouve l'utilisation d’un entrepôt de données clients, qui permet d'établir et de gérer dans le temps des contacts personnels et différenciés, entre l'entreprise et ses clients ou prospects.
Pour aller plus loin vous pouvez utilement consulter le site suivant : cliquez ici
Le domaine de la confidentialité de l'information concerne les processus de collecte et de diffusion de données, il présente de nombreuses dimensions : attentes du public en matière de protection de la vie privée, aspects juridiques, politiques et technologiques. La préoccupation de la confidentialité voit le jour dès que des informations nominatives sont collectées et stockées sous quelque forme que ce soit, numérique ou autre. La divulgation inappropriée d’informations nominatives peut engendrer des atteintes graves à la vie privée.
Des manquements à la confidentialité peuvent être initiés à partir de nombreuses sources, telles que : les dossiers médicaux, les enquêtes et les procédures de la justice pénale, les transactions avec les institutions financières, et tous les dossiers contenant des données clés (notamment géographiques, biologiques, etc.). Le défi de la confidentialité des données est d’arriver à gérer et à partager des données tout en protégeant les informations nominatives.
Sur internet les personnes peuvent être amenées à stocker, afficher, partager elles-mêmes des données qui relèvent de la sphère privée et à plus ou moins bien maîtriser la diffusion de ces informations. C’est en particulier le cas sur les réseaux sociaux où sont généralement fournis tous les éléments permettant une identification très précise d’une personne physique. Un certain nombre d'experts dans le domaine de la sécurité internet disent d’ailleurs que la vie privée n'existe pas sur internet.
Les entreprises commerciales exploitent particulièrement à partir d’internet de nombreuses informations sur les produits ou services qui intéressent les personnes, sur les sites visités, les paniers abandonnés, les transactions effectuées, les commentaires laissés, les tweets diffusés, etc. Tous ces éléments révèlent beaucoup de choses sur les personnes, et les entreprises peuvent utiliser ces informations pour cibler les individus et personnaliser leur approche marketing en intégrant les préférences personnelles. Dans une vision bisousnours de la société, toutes ces pratiques sont innocentes.
Un grand domaine de soucis en matière de confidentialité est celui des données financières. Les informations sur les transactions financières d'une personne, le montant des actifs, le détail des actions ou des fonds détenus, les emprunts, ..., sont autant d’informations sensibles qu’il convient de très bien protéger. Au-delà des traditionnelles extorsions fondées sur l’exploitation des numéros de compte ou des numéros de cartes de crédit, des criminels qui arrivent à appréhender suffisamment d’informations sur une victime, peuvent monter des fraudes de grande envergure, en commençant par exemple par usurper l’identité de quelqu’un grâce à tous les détails que la victime a elle-même fournis, en particulier sur les réseaux sociaux.
Pour aller plus loin sur le sujet vous pouvez utilement lire mes autres propos sur la protection de la vie privée, sur la façon de gérer les données nominatives, sur comment concilier marketing personnalisé et protection de la vie privée pour que l’entreprise ne soit pas perçue comme faisant partie des big brothers : cliquez ici
Des manquements à la confidentialité peuvent être initiés à partir de nombreuses sources, telles que : les dossiers médicaux, les enquêtes et les procédures de la justice pénale, les transactions avec les institutions financières, et tous les dossiers contenant des données clés (notamment géographiques, biologiques, etc.). Le défi de la confidentialité des données est d’arriver à gérer et à partager des données tout en protégeant les informations nominatives.
Sur internet les personnes peuvent être amenées à stocker, afficher, partager elles-mêmes des données qui relèvent de la sphère privée et à plus ou moins bien maîtriser la diffusion de ces informations. C’est en particulier le cas sur les réseaux sociaux où sont généralement fournis tous les éléments permettant une identification très précise d’une personne physique. Un certain nombre d'experts dans le domaine de la sécurité internet disent d’ailleurs que la vie privée n'existe pas sur internet.
Les entreprises commerciales exploitent particulièrement à partir d’internet de nombreuses informations sur les produits ou services qui intéressent les personnes, sur les sites visités, les paniers abandonnés, les transactions effectuées, les commentaires laissés, les tweets diffusés, etc. Tous ces éléments révèlent beaucoup de choses sur les personnes, et les entreprises peuvent utiliser ces informations pour cibler les individus et personnaliser leur approche marketing en intégrant les préférences personnelles. Dans une vision bisousnours de la société, toutes ces pratiques sont innocentes.
Un grand domaine de soucis en matière de confidentialité est celui des données financières. Les informations sur les transactions financières d'une personne, le montant des actifs, le détail des actions ou des fonds détenus, les emprunts, ..., sont autant d’informations sensibles qu’il convient de très bien protéger. Au-delà des traditionnelles extorsions fondées sur l’exploitation des numéros de compte ou des numéros de cartes de crédit, des criminels qui arrivent à appréhender suffisamment d’informations sur une victime, peuvent monter des fraudes de grande envergure, en commençant par exemple par usurper l’identité de quelqu’un grâce à tous les détails que la victime a elle-même fournis, en particulier sur les réseaux sociaux.
Pour aller plus loin sur le sujet vous pouvez utilement lire mes autres propos sur la protection de la vie privée, sur la façon de gérer les données nominatives, sur comment concilier marketing personnalisé et protection de la vie privée pour que l’entreprise ne soit pas perçue comme faisant partie des big brothers : cliquez ici
Il est essentiel de bien comprendre l’intérêt d’une bonne qualité des données, ses effets en termes de coûts et d’efficacité. La qualité des données est très importante pour les analyses qui visent à éclairer les décisions, pour la gestion des opérations, pour la relation client par exemple, elle participe grandement au succès de l’entreprise. Mais au sein de la plupart des organismes, sous la pression des objectifs de réduction des coûts, la qualité est sous financée, abordée de façon parcellaire, sans vision d’ensemble, ni perspective de long terme.
La gestion de la qualité des données démarre avec la définition des données, elle continue avec la maîtrise des processus de création, de mise à jour et de transformation tout au long du cycle de vie des données. Les erreurs qui affectent les données peuvent être faites à n’importe quel moment de la chaîne d’information, et plus particulièrement lorsque les données sont utilisées dans d’autres processus que celui où elles ont été créées. Le management de la qualité des données est donc complexe, et nécessite de mobiliser de nombreux acteurs de tous les horizons de l’entreprise (informaticiens, utilisateurs métier opérationnels, analystes, etc.)
L’identification des sources de données de mauvaises qualité est une condition nécessaire et un préalable indispensable à toute initiative d’amélioration, mais encore faut-il que les enjeux, les gains espérés, soient suffisamment élevés pour justifier des coûts souvent importants. Cependant les fortes demandes d’accès et d’analyse des données auxquelles les systèmes d’information doivent faire face aujourd’hui, notamment en provenance des directions, créent une exigence très forte quant à la qualité des données délivrées. Ainsi dans de nombreuses entreprises les données sont considérées comme une ressource précieuse, essentielle même, pour des décisions pouvant avoir un impact fort sur la marche des affaires.
Lorsque des études sont faites à l’intérieur des entreprises sur ce thème de la qualité des données, les répondants disent régulièrement qu’ils n’ont pas une vision claire des rôles, des responsabilités, des processus et des coûts. Dans ces conditions, pour répondre aux problèmes de qualité des données et mieux profiter d’une vision d’ensemble des données de l’entreprise, de nombreuses sociétés mettent en place une équipe de gestion de la qualité des données. Cette équipe de gestion a pour objectif de permettre une bonne exploitation des informations-clés d’une société. Multifonctionnelle elle réunit des représentants de chaque ligne d’activités et de chaque fonction de l’entreprise. Ils sont chargés de gérer les données et les informations pour l’ensemble de la société. Des représentants des services informatiques fournissent support et conseils à l’organisation sur de nombreux points, et plus particulièrement ceux liés à l’utilisation des outils d’infrastructure.
Pour aller plus loin sur le sujet vous pouvez utilement consulter mes autres articles sur la qualité des données dans le système d’information décisionnel : cliquez ici
Les données de référence sont fondamentales pour les systèmes d’information des entreprises, elles doivent être uniformisées et partagées par toutes les applications et tous les acteurs. Mais force est de constater que la plupart du temps les données sont hétérogènes, dispersées dans les applications et que les différents acteurs privilégient leurs façons d’appeler les données au détriment d’un langage commun.
Une bonne gestion des données de référence est intéressante pour les différentes fonctions de l’entreprise, pour gérer de façon homogène les clients à travers tous les canaux d’interaction, pour gérer les produits tout au long de leur cycle vie de leur production jusqu’à leur destruction en passant par leur maintenance, pour gérer les données financières notamment lors des opérations d’acquisition ou de réorganisation, pour gérer la chaîne d’approvisionnement, pour toutes les activités d’analyse de données, de reporting, de tableaux de bord, etc.
La première chose à faire pour mettre en place un système de gestion des données de référence, est de définir une gouvernance des données, concrètement il s’agit d’identifier les propriétaires des objets et de définir les règles liées à l’ajout, la modification ou encore la mise à disposition des données de référence au sein de l’entreprise. De façon plus précise il s’agit d’identifier par domaine de gestion les données de références à gérer, de prendre en compte tous les systèmes sources, de collecter ces données, de définir les formats du langage commun, ainsi que des règles de transformation, d’administration et de distribution des données de référence.
La synchronisation des données de référence peut s’effectuer de plusieurs manières différentes. Par exemple la synchronisation de chaque système est assurée via des scripts ou des saisies manuelles, certains systèmes peuvent être définis comme maître pour certaines données, ou les données maîtresses sont gérées dans un entrepôt de données, ou on utilise une application spécifique dédiée, qui gère à la fois les données maîtresses et la synchronisation. C’est cette dernière solution qui tend à se développer de plus en plus, car elle offre une grande souplesse. Sauf exception il convient certainement de bannir les solutions partielles ne gérant que les données client ou les données produit.
La gestion des données de référence a donc pour intérêt d’améliorer la qualité de l’information, elle doit concerner tous les systèmes de l’entreprise, que ce soient les applications transactionnelles ou les applications décisionnelles. Il est certain qu’une mauvaise gestion de ces données peut coûter très cher. Il est donc absolument indispensable de sensibiliser les métiers aux enjeux, de voir avec eux tous les avantages d’une bonne gestion, et de définir la bonne gouvernance nécessaire pour créer, collecter, nettoyer, maintenir, publier et auditer les données de références.
Pour aller plus loin, vous pouvez utilement consulter mes autres propos sur ce sujet clé de la gestion des données de référence (données de référence, gérer l’ADN du système décisionnel, gérer le référentiel métier dans l’entrepôt de données, MDM où en sommes-nous ?) : cliquez ici.
Une bonne gestion des données de référence est intéressante pour les différentes fonctions de l’entreprise, pour gérer de façon homogène les clients à travers tous les canaux d’interaction, pour gérer les produits tout au long de leur cycle vie de leur production jusqu’à leur destruction en passant par leur maintenance, pour gérer les données financières notamment lors des opérations d’acquisition ou de réorganisation, pour gérer la chaîne d’approvisionnement, pour toutes les activités d’analyse de données, de reporting, de tableaux de bord, etc.
La première chose à faire pour mettre en place un système de gestion des données de référence, est de définir une gouvernance des données, concrètement il s’agit d’identifier les propriétaires des objets et de définir les règles liées à l’ajout, la modification ou encore la mise à disposition des données de référence au sein de l’entreprise. De façon plus précise il s’agit d’identifier par domaine de gestion les données de références à gérer, de prendre en compte tous les systèmes sources, de collecter ces données, de définir les formats du langage commun, ainsi que des règles de transformation, d’administration et de distribution des données de référence.
La synchronisation des données de référence peut s’effectuer de plusieurs manières différentes. Par exemple la synchronisation de chaque système est assurée via des scripts ou des saisies manuelles, certains systèmes peuvent être définis comme maître pour certaines données, ou les données maîtresses sont gérées dans un entrepôt de données, ou on utilise une application spécifique dédiée, qui gère à la fois les données maîtresses et la synchronisation. C’est cette dernière solution qui tend à se développer de plus en plus, car elle offre une grande souplesse. Sauf exception il convient certainement de bannir les solutions partielles ne gérant que les données client ou les données produit.
La gestion des données de référence a donc pour intérêt d’améliorer la qualité de l’information, elle doit concerner tous les systèmes de l’entreprise, que ce soient les applications transactionnelles ou les applications décisionnelles. Il est certain qu’une mauvaise gestion de ces données peut coûter très cher. Il est donc absolument indispensable de sensibiliser les métiers aux enjeux, de voir avec eux tous les avantages d’une bonne gestion, et de définir la bonne gouvernance nécessaire pour créer, collecter, nettoyer, maintenir, publier et auditer les données de références.
Pour aller plus loin, vous pouvez utilement consulter mes autres propos sur ce sujet clé de la gestion des données de référence (données de référence, gérer l’ADN du système décisionnel, gérer le référentiel métier dans l’entrepôt de données, MDM où en sommes-nous ?) : cliquez ici.
Dans le cadre d’un système d’information, les modèles ont pour objectif de structurer les informations et activités d'une organisation : données, traitements, et flux d'informations entre entités. De façon plus précise un modèle de données, est une représentation de la définition des différentes données (attributs) dans une organisation et comment ces attributs se rapportent les uns aux autres. Un système de base de données a de multiples modèles de données : physiques, logiques et sémantiques.
Les modèles logiques de données de Teradata par industrie servent à répondre aux questions des métiers comme les modèles des applications opérationnelles servent à supporter les processus couverts. Tout comme les plans d’un immeuble décrivent l’agencement détaillés des étages, le MLD décrit les dépendances ou relations entre les différentes données du système d'information (par exemple : le client, la commande, la ligne de commande, etc.), ainsi que la volumétrie, la structure et l'organisation des données telles qu'elles pourront être implémentées. Lorsque le MLD est défini, il est possible de connaître la liste exhaustive des tables qu’il faut créer dans une base de données relationnelle.
De façon plus détaillée, le modèle logique de données permet donc de saisir avec exactitude les besoins d'information, les règles et politiques qui régissent l'entreprise. Il est utilisé pour créer le modèle physique, est indépendant de la plate-forme sur laquelle il va être implémenté, ne change que lorsque le métier change, se doit d’être compris par les utilisateurs métier et enfin permet au système d’information d’être stable, fiable, accessible et pérenne.
Un MLD présente de nombreux avantages comme le fait qu’il reflète les opérations et les règles de l’entreprise (la vérité). Etant construit en fonction des besoins des utilisateurs métier et non en fonction de considérations purement techniques, il permet de centrer les analyses sur ce qui est important pour l'entreprise, d’appréhender des données individuellement ou en relation avec les autres. De par sa construction il élimine les redondances et donc de multiples versions de la vérité. Il crée une base stable pour la croissance future, il facilite la compréhension commune des enjeux des affaires et des priorités, il conduit au développement d’un langage commun, il améliore les communications, les échanges d'information entre les métiers et l’informatique et au final il favorise le travail d’équipe et le consensus.
La mise ne œuvre d’un modèle métier comme ceux de Teradata est rapide, généralement c’est l’affaire de quelques semaines. Ces modèles permettent d’accélérer les projets, en facilitant l’identification, la compréhension, la modélisation des données à récupérer, tout en réduisant considérablement les risques. Pour aller plus loin vous pouvez utilement lire mes autres articles au sujet de la modélisation des entrepôts de données : cliquez ici
Les modèles logiques de données de Teradata par industrie servent à répondre aux questions des métiers comme les modèles des applications opérationnelles servent à supporter les processus couverts. Tout comme les plans d’un immeuble décrivent l’agencement détaillés des étages, le MLD décrit les dépendances ou relations entre les différentes données du système d'information (par exemple : le client, la commande, la ligne de commande, etc.), ainsi que la volumétrie, la structure et l'organisation des données telles qu'elles pourront être implémentées. Lorsque le MLD est défini, il est possible de connaître la liste exhaustive des tables qu’il faut créer dans une base de données relationnelle.
De façon plus détaillée, le modèle logique de données permet donc de saisir avec exactitude les besoins d'information, les règles et politiques qui régissent l'entreprise. Il est utilisé pour créer le modèle physique, est indépendant de la plate-forme sur laquelle il va être implémenté, ne change que lorsque le métier change, se doit d’être compris par les utilisateurs métier et enfin permet au système d’information d’être stable, fiable, accessible et pérenne.
Un MLD présente de nombreux avantages comme le fait qu’il reflète les opérations et les règles de l’entreprise (la vérité). Etant construit en fonction des besoins des utilisateurs métier et non en fonction de considérations purement techniques, il permet de centrer les analyses sur ce qui est important pour l'entreprise, d’appréhender des données individuellement ou en relation avec les autres. De par sa construction il élimine les redondances et donc de multiples versions de la vérité. Il crée une base stable pour la croissance future, il facilite la compréhension commune des enjeux des affaires et des priorités, il conduit au développement d’un langage commun, il améliore les communications, les échanges d'information entre les métiers et l’informatique et au final il favorise le travail d’équipe et le consensus.
La mise ne œuvre d’un modèle métier comme ceux de Teradata est rapide, généralement c’est l’affaire de quelques semaines. Ces modèles permettent d’accélérer les projets, en facilitant l’identification, la compréhension, la modélisation des données à récupérer, tout en réduisant considérablement les risques. Pour aller plus loin vous pouvez utilement lire mes autres articles au sujet de la modélisation des entrepôts de données : cliquez ici
La plupart des entreprises visent un gain de performance global grâce à l’alignement des ressources humaines avec les objectifs stratégiques. Dans cet esprit, un bon système d’information décisionnel des ressources humaines doit permettre de fonder la démarche stratégique des RH, en aidant les responsables à anticiper et préparer l’entreprise aux évolutions de son environnement, notamment en répondant aux évolutions prévisibles et nécessaires. Il doit en outre aider les responsables à s’assurer que les ressources sont obtenues et utilisées avec efficience et efficacité pour réaliser les objectifs de l’entreprise.
Ainsi il est certain que pour bien piloter la gestion et le management des RH, il est indispensable que les décisions puissent être préparées et fondées sur des faits, or les systèmes d’information RH sont encore majoritairement très hétéroclites, peu intégrés, centrés sur la réalisation de la paye et de la gestion des temps. Même si le décisionnel RH est ancien et que depuis très longtemps les fournisseurs de progiciels et les prestataires de services proposent des solutions, souvent seuls les effectifs et la masse salariale font l’objet d’analyses régulières.
Il est donc très rare de trouver des entreprises qui ont un système d’information décisionnel RH développé abordant les différents domaines des RH. Les principaux champs d’analyse d’un SDRH devraient être : la gestion des temps et de l’absentéisme, la gestion des effectifs et des affectations, la gestion de la productivité, la gestion de la masse salariale et des rémunérations, la gestion de la formation, la gestion des compétences, la gestion des recrutements. Pour les grandes entreprises il peut être particulièrement intéressant de développer des analyses (rétrospectives, prévisions, simulations) de leur problématique RH en fonction des localisations, des métiers, des fonctions, des rythmes de travail, des coefficients hiérarchiques, etc.
De nombreuses solutions décisionnelles sont proposées, voir ci-dessous une revue effectuée par le Journal du Net, mais si la qualité des applications est importante, la qualité des données est primordiale. C’est pourquoi il convient d’aborder son décisionnel RH par la réalisation d’un entrepôt de données qui a pour vocation d’intégrer toutes les données RH, d’en garantir la qualité et l’accessibilité. Ici le mieux est d’ajouter un domaine RH à votre entrepôt de données d’entreprise, de façon à mutualiser les moyens et ouvrir des possibilités de croisement de données avec les autres domaines : finance, production, etc...
Pour aller plus loin sur ce sujet vous pouvez utilement lire les articles ci-dessous :
Autre article sur le décisionnel RH : cliquez ici
Entrepôt de données d’entreprise : cliquez ici
Applications décisionnelles RH : cliquez ici
Ainsi il est certain que pour bien piloter la gestion et le management des RH, il est indispensable que les décisions puissent être préparées et fondées sur des faits, or les systèmes d’information RH sont encore majoritairement très hétéroclites, peu intégrés, centrés sur la réalisation de la paye et de la gestion des temps. Même si le décisionnel RH est ancien et que depuis très longtemps les fournisseurs de progiciels et les prestataires de services proposent des solutions, souvent seuls les effectifs et la masse salariale font l’objet d’analyses régulières.
Il est donc très rare de trouver des entreprises qui ont un système d’information décisionnel RH développé abordant les différents domaines des RH. Les principaux champs d’analyse d’un SDRH devraient être : la gestion des temps et de l’absentéisme, la gestion des effectifs et des affectations, la gestion de la productivité, la gestion de la masse salariale et des rémunérations, la gestion de la formation, la gestion des compétences, la gestion des recrutements. Pour les grandes entreprises il peut être particulièrement intéressant de développer des analyses (rétrospectives, prévisions, simulations) de leur problématique RH en fonction des localisations, des métiers, des fonctions, des rythmes de travail, des coefficients hiérarchiques, etc.
De nombreuses solutions décisionnelles sont proposées, voir ci-dessous une revue effectuée par le Journal du Net, mais si la qualité des applications est importante, la qualité des données est primordiale. C’est pourquoi il convient d’aborder son décisionnel RH par la réalisation d’un entrepôt de données qui a pour vocation d’intégrer toutes les données RH, d’en garantir la qualité et l’accessibilité. Ici le mieux est d’ajouter un domaine RH à votre entrepôt de données d’entreprise, de façon à mutualiser les moyens et ouvrir des possibilités de croisement de données avec les autres domaines : finance, production, etc...
Pour aller plus loin sur ce sujet vous pouvez utilement lire les articles ci-dessous :
Autre article sur le décisionnel RH : cliquez ici
Entrepôt de données d’entreprise : cliquez ici
Applications décisionnelles RH : cliquez ici
Dans le contexte de globalisation d’aujourd’hui, les exigences en matière d’approvisionnement des grandes entreprises sont extrêmement élevées, au point que des sociétés spécialisées voient le jour comme Vector SCM, qui gère 12 000 sources d’approvisionnement, 1200 transporteurs, charge 8 millions de véhicules par an, dessert 12 500 points de livraison et permet à de nombreuses entreprises de remplir les exigences logistiques de leurs grands donneurs d’ordres.
L’optimisation des chaînes d’approvisionnement est un enjeu dans la recherche d’avantages concurrentiels. Par exemple dans le secteur de la distribution une entreprise comme Wal-Mart a en partie construit son succès sur la création d’une chaîne d’approvisionnement particulièrement remarquable, qui entre autre a su remplacer des stocks par de l’information : plus vite les magasins envoient des informations sur ce que les clients achètent, plus vite l’information peut être transmise aux fabricants et aux concepteurs (cf. Zara), plus vite la chaîne d’approvisionnement peut réagir.
Cependant la plupart du temps dans les entreprises, la chaîne d’approvisionnement souffre de cloisonnements, car l’intégration et la synchronisation des flux physiques, des flux d’informations et des flux financiers n’est pas optimale. Or la réduction des stocks et l’optimisation de la chaîne d’approvisionnement ne peuvent se concevoir sans une bonne gestion de l’information. Au-delà des traditionnels systèmes opérationnels qui permettent d’automatiser les processus, il convient sans aucun doute de s’appuyer sur un système décisionnel adapté. Ce dernier doit être fondé sur un entrepôt de données qui a pour vocation d’intégrer toutes les données logistiques internes ou externes, et offrir à toutes les parties prenantes les visions historiques, opérationnelles, prévisionnelles ou de simulation dont elles ont besoin.
Le système décisionnel doit intégrer des données de toutes les applications opérationnelles concernées, à savoir de façon non limitative, des données de : CRM – Customer Relation Management, DP&F – Demand Planning and Forecasting, SRM – Supplier Relation Management, APS – Advanced Planning & Scheduling, ERP – Enterprise Resources Planning, TMS – Transportation Management System, WMS – Warehouse Management System, DCS – Distributed Controlled System, MES – Manufacturing Execution System, etc.
Pour aller plus loin, vous pouvez utilement lire mon livre blanc sur la chaîne d’approvisionnement. Cliquez ici
> A LIRE EN CE MOMENT SUR DECIDEO
-
L’intelligence artificielle : faisons vite mais faisons bien
-
Informatica présente ses nouvelles fonctionnalités d'intégration dans le Cloud et de gestion des données de référence alimentées par l'IA
-
Abeille Assurances s’appuie sur la location intelligence et l'enrichissement des données de Precisely pour gérer les risques climatiques et améliorer l'expérience client
-
DDN réinvente l’infrastructure des données pour l’IA avec ses nouvelles solutions présentées
-
Hyland améliore son Content Innovation Cloud avec l’IA afin d’aider les entreprises à exploiter la pleine puissance de leurs données non structurées
-
Celonis met à la disposition des clients de Microsoft Fabric sa Process Intelligence pour permettre une accélération de l'IA à grande échelle
-
Une nouvelle solution Nextlane pour faire face aux exigences du RGPD dans le secteur automobile
-
À la découverte de la prochaine génération de disques durs
-
Precisely acquiert DTS Software, ajoutant le logiciel d'optimisation du stockage mainframe à sa gamme de produits d'intégrité des données
-
Fivetran étend l’intégration de Microsoft Fabric avec plus de 700 connecteurs, facilitant la création de data lakes optimisés pour l’IA
Profil
Michel Bruley

Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques