Cet article a pour objectif d’expliquer ce qu'est le « Customer Experience Management » comment il se relie à une approche « plus traditionnelle » de CRM, en quoi il est nécessaire pour construire des relations 1 to 1 fortes avec des clients de qualité. Pour certains, le CEM est juste un autre mot à la mode inventé par des consultants en mal de renouvellement. Pour d'autres, c'est le «Saint Graal» du 1 to 1 Marketing, particulièrement pour les clients de haute valeur et à haut potentiel de croissance. Comme souvent, la vérité se trouve quelque part entre ces deux extrémités.
Une approche coordonnée et intégrée de CEM est la composante principale d'une stratégie réussie de gestion de la relation client. C’est également une composante clé d’une stratégie de gestion de marque. Tandis que certaines caractéristiques d’une marque sont établies à travers les moyens traditionnels mobilisés pour vendre, l’image réelle de la marque se fixe lors des interactions avec le client. L'image de marque et la réputation sont devenues de plus en plus dépendantes des expériences des clients avec l’entreprise. Les gens se rappellent des expériences davantage que des produits ou des services. Le mécontentement des clients et un fort taux d’attrition sont les conséquences normales de l'échec d’une marque à assumer la qualité d'expérience attendue par ses clients.
Comme le CRM, le CEM est né du constat de la baisse de l'efficacité des stratégies traditionnelles de vente. Dans la plupart des industries une combinaison d’effets venant en particulier, de l’augmentation de la concurrence, de l’utilisation de nouvelles technologies, de l’évolution des modes de vie ont modifié l'équilibre des forces entre les fournisseurs et les clients. Sur les marchés caractérisés par une concurrence globale intense, une réduction du nombre de marques, une banalisation des produits, des services, et un accès illimité à l'information, de nouvelles approches innovatrices des ventes sont indispensables. Dans une ère où le « client est roi », une croissance soutenue des ventes et des bénéfices ne peut être réalisée qu’en construisant une relation 1 to 1 forte avec les clients de haute valeur et à haut potentiel.
Le CEM et le CRM accordent beaucoup d’importance au principe du 20/80 (20 pour cent des clients produisent 80 pour cent des revenus) et à la nécessité de maximiser la rentabilité des clients de qualité. Tandis que des similitudes existent, il y a des différences importantes entre les deux approches. À quelques égards, le CEM peut être considéré comme une image du CRM vue dans un miroir. Dans une approche CRM « traditionnelle », chaque interaction avec un client est vue comme une occasion pour l’entreprise d’améliorer son niveau de connaissance du client. L'information saisie au moment de l'interaction est employée pour établir un profilage, une microsegmentation, une analyse prédictive, etc. L'objectif principal est d'améliorer l'efficacité des ventes et de monter des campagnes plus ciblées, avec des produits, des services et un matériel promotionnel plus adaptés aux besoins spécifiques de segments de clients bien définis. Le but est la personnalisation complète des ventes et du marketing dans une logique 1 to 1. L’approche CEM renverse cette perspective et tout en regardant chaque interaction comme une opportunité de mieux connaître le client, elle vise à donner à ce dernier l’occasion d’en apprendre plus sur l’entreprise. Or toutes les études le montrent, il y a un rapport clair de cause à effet entre ce que le client apprend lors d’une interaction et son comportement lors de l’interaction suivante.
L’approche CEM peut donc être synthétisée de la façon suivante :
1°) La vraie source de la fidélité (conservation, croissance du client) est la qualité de l'expérience que chaque client a avec l’entreprise, et non pas la capacité de cette dernière à s'adapter aux besoins du client en personnalisant ses messages de ventes. Car l’approche de l’entreprise honnie est honnie, même si elle est personnalisée.
2°) Chaque fois qu'un client entre en relation avec l’entreprise, il « expérimente » les collaborateurs, les systèmes, les processus et la culture. Les expériences d’un client pendant ses interactions, particulièrement à certains moments clé de vérité, ont un impact crucial sur son futur comportement. Les expériences positives aident à établir la fidélité du client. Les expériences négatives mènent à la défection du client.
3°) Les expériences du client se produisent à travers divers points de contact (par exemple le service vente, le centre d'appel, le bureau de réception, le service à la clientèle, l’après-vente, la publicité, les brochures, le site web, etc.) et ceci à différentes étapes du cycle de vie du client (prospect, client récemment acquis, etc.). Les entreprises ne peuvent pas éviter les occurrences des expériences à chaque point de contact, il est donc essentiel que chacun d’eux soit proactivement contrôlé de manière à ce qu’ils influencent positivement le client. L’assurance de la qualité et de l’uniformité des expériences à travers tous les « points de contact » est un facteur critique de succès majeur.
4°) Fondée sur ce qui précède, l’approche CEM peut être définie comme la gestion proactive des interactions critiques qui ont lieu entre l’entreprise et ses clients, de manière à fournir la valeur adaptée définie par la stratégie. Les expériences positives de gestion du client produiront de la fidélité et de la croissance. Les expériences négatives mèneront à la défection du client. Le CEM doit donc être partie intégrante de l'approche globale du client et de la gestion de la marque d’une entreprise.
5°) Un CEM efficace peut fournir à court, moyen et long terme un avantage concurrentiel de différentiation, une amélioration immédiate de la satisfaction des clients et de la fidélisation, le tout se cumulant au niveau des résultats financiers.
Rédigé par Michel Bruley le Mercredi 16 Août 2017 à 10:09
|
Permalien
|
{0}
Les approches conservatrices de la comptabilité ont de nouveau la cote, la recherche de techniques innovatrices de comptabilité n’est plus d’actualité. Les expériences types Enron ont mis fin à cette période et ont donné naissance au Sarbanes-Oxley Act qui prévoit des pénalités et des temps de prison pour les cadres qui ne gèrent pas leurs données financières convenablement. On en revient aux fondamentaux, l’emphase aujourd'hui est sur la publication et l’explicitation des bénéfices réels.
Cependant la situation des départements financiers n’est pas confortable, car ils doivent prendre des mesures drastiques pour survivre. Ils doivent composer entre l’exigence de produire des analyses plus rapides & plus détaillées et la demande apparemment contradictoire de couper des coûts et de réduire leur personnel. Car pour essentiels qu’ils puissent être, les départements financiers sont d’abord vus comme des frais généraux, comme non directement producteurs de revenus pour des sociétés qui sont forcées de devenir plus sveltes. Les Directeurs Administratifs et Financiers sont invités à faire plus avec beaucoup moins. Ils ne peuvent réussir qu’en changeant radicalement leurs moyens de production des informations financières. Ils doivent fournir de meilleures informations en temps réel, de façon à aider les responsables à identifier rapidement des changements sur le marché et à s'adapter en conséquence. Malheureusement la plupart sont dotés de systèmes financiers disparates fondés sur de multiples bases de données et sont donc face à un défi qui leur semble insurmontable.
Dans cette situation l'entrepôt de données d'entreprise émerge comme la plateforme optimale pour améliorer la gestion des affaires. Les sociétés qui emploient un entrepôt pour leur gestion financière ont pu raccourcir les cycles de clôture, réduire les frais généraux, contrôler les dépenses plus étroitement, réduire les stocks et fournir aux responsables à travers toute l’entreprise les informations fraîches et précises, requises pour prendre plus rapidement de meilleures décisions stratégiques et tactiques. Les enjeux de crédibilité, de qualité, d'opportunité et d'exactitude des informations de gestion et de publication des données financières n'ont jamais été plus critiques. Dans cette optique, l'option de centraliser toute l'information d'entreprise dans un entrepôt est attrayante, mais un tel projet peut être intimidant. Dès lors quelques compagnies préfèrent adopter à la place d’un entrepôt des solutions alternatives qui leur semblent plus avantageuses. Quelles sont ces solutions de rechange ?
En premier il y a les ERP. Ils sont conçus pour être des systèmes transactionnels grâce auxquels des processus métier peuvent être harmonisés au niveau de l’ensemble de l’entreprise, mais ils ont la plupart du temps le plus grand mal à couvrir les besoins analytiques. En effet rares sont les grandes entreprises qui n’ont qu’un ERP ou une seule instance d’un ERP comme système d’information (la plupart du temps l’ERP cohabite avec d’autres applications). Dès lors se posent des problématiques d’hétérogénéité des données qui perturbent la consolidation des résultats, et pour autoriser des analyses d’ensemble au périmètre de l'entreprise, il faut réaliser dans une base dédiée l’incontournable intégration des données.
En second il y a les solutions ponctuelles qui couvrent une partie des processus et qui fournissent sur leur périmètre de bonnes capacités analytiques. Par exemple, des entreprises ont mis en œuvre des systèmes de gestion de la chaîne d'approvisionnements (SCM) pour mieux maîtriser les interactions avec les fournisseurs, ou des systèmes de gestion de la relation client (CRM) pour développer des rapports profitables avec les clients. Ces systèmes couplés à d’autres systèmes opérationnels (souvent des ERP) créent un ensemble plus ou moins intégré, qui contient les données critiques des activités, mais qui pourtant est généralement inefficace, fournissant le plus souvent des vues partielles et contradictoires des activités.
En troisième il y a les nouvelles applications de Gestion des Performances (CPM) qui ont été lancées sur le marché avec la promesse de fournir aux responsables un système d’accès à toutes données de l’entreprise pour les aider à pro activement contrôler leurs affaires. Une bonne application de Gestion des Performances peut non seulement lier les données disparates d'une entité, mais surtout permettre de mieux aligner les différentes fonctions, les différents départements sur les objectifs stratégiques de l’entreprise. Cependant il y a toujours ici le problème relatif à la qualité des données financières de base et à leur intégration. Les directeurs financiers sont avec ces applications incapables de produire de bonnes prévisions, de bons plans et un bon reporting, lorsqu’ils s’appuient sur des silos de données dispersés à travers l'entreprise, qui créent une situation cauchemardesque d’intégration des données qui condamne à long terme la portée et la viabilité de ces applications. Sauf exception, seule une alimentation à partir d’un entrepôt de données d’entreprise permet à ces applications CPM de réaliser leur promesse de fournir aux responsables un système d’accès à toutes données de l’entreprise pour les aider à pro activement contrôler leurs affaires.
Ce qui caractérise les entreprises leaders de différentes industries, c’est leur capacité à utiliser la puissance de leurs informations pour conduire efficacement leurs affaires, elles utilisent pour cela un entrepôt de données actif qui leur permet de mettre les informations opérationnelles et historiques au service du management de leurs activités.
Mais force est de constater que toutes les entreprises ne sont pas à ce niveau, et qu’en dépit d'investir des millions dans l’IT, beaucoup ne savent pas faire circuler de façon satisfaisante des informations entre leurs clients, leurs fournisseurs et leurs employés. Les directeurs et les cadres recourent très fréquemment à leurs documents et systèmes personnels pour prendre des décisions. Les opérationnels notamment ceux aux contacts des clients ou partenaires n'ont pas toutes les données opérationnelles et historiques nécessaires pour gérer de façon appropriée les activités dont ils ont la charge. La plupart des organismes ne peuvent pas fournir à leurs personnels les bonnes informations au bon moment, en conséquence ils sont au mieux réactifs et très rarement proactifs. Au final, ils ne contrôlent efficacement ni leur présent ni leur futur.
Pour maîtriser leur destin et être plus concurrentielles, les entreprises doivent gérer leurs données comme l’un de leurs plus précieux actifs. Il leur faut investir pour bien les gérer, bien les analyser et en tirer toutes les possibilités pour être plus créatives et plus efficaces. Grâce à un entrepôt de données actif, les données opérationnelles les plus récentes et les données historiques détaillées peuvent être rapprochées pour mettre en perspective le présent, anticiper le futur et agir en conséquence. Ainsi on peut soutenir non seulement la gestion quotidienne, prendre des décisions stratégiques, mais aussi donner également aux opérationnels de base les informations qui leurs permettent par exemple d’entretenir les relations client, d’optimiser la chaîne d'approvisionnements et les opérations financières.
Aujourd'hui dans la plupart des grandes entreprises les décisions sont prises par des personnes qui ne peuvent pas rapprocher dans leur système des données du passé et des données des opérations en cours, au mieux elles peuvent le faire manuellement. De plus la plupart du temps la qualité des données est en question, les responsables utilisent des données extraites de divers systèmes hétérogènes (multiples instances ERP, multiples progiciels spécialisés pour le CRM, le SCM, multiples bases de données historiques détaillées, multiples data marts, multiples systèmes de reporting, etc.).
Inversement les entreprises leaders savent que pour rendre leurs personnels plus efficaces et optimiser leurs activités, elles doivent mettre en place les meilleurs systèmes d’information et d'analyse. En utilisant des entrepôts de données actifs, elles mettent l'information aux services des affaires. Ces entreprises intègrent et analysent des données opérationnelles et historiques issues de tous les processus pour améliorer le management de toutes les dimensions de toutes leurs activités. L'impact est énorme, il se joue non seulement au niveau des grandes décisions stratégiques prises par les dirigeants de l’entreprise, mais aussi à tous les niveaux de la hiérarchie jusqu’aux personnels en charge des opérations quotidiennes. Par exemple avec une telle approche, les entreprises peuvent mieux identifier les services et/ou produits que leurs clients veulent, mieux comprendre les coûts et l’impact de variations des prix, ou immédiatement chiffrer les effets d’un retard de livraison, évaluer l’impact potentiel des réponses possibles à cette situation, ou dialoguer avec les clients, les fournisseurs en ayant des données objectives, fiables pour fonder les réponses. Une telle approche permet de prendre des décisions plus cohérentes (accès à une même information intégrée) uniformément meilleures à tous les niveaux et améliore les performances de tous.
Le niveau de management des activités décrit précédemment ne peut être envisagé avec les approches ERP ou progiciels traditionnels, même si elles sont complétées de moyen de BI ou de reporting. Au-delà de l’habituelle multiplication des sources de données déjà évoquées, ce sont les capacités techniques de ces systèmes qui sont aussi en cause. En effet dans les grandes entreprises il est impératif de pouvoir prendre en charge des volumes de données importants tant en terme de flux, de stockage que d’analyse par un nombre important de personnes (dans certaines entreprises près de 20% des effectifs utilisent des moyens décisionnels).
Le concept d’entrepôt de données actif est incontournable à terme pour toutes les grandes entreprises, même si force est de constater qu’aujourd’hui c’est principalement celles, qui font la course en tête de la globalisation, qui se sont déjà lancées à mettre en œuvre une telle approche.
Dans le monde complexe d’aujourd’hui les risques sont partout, mais en même temps, leur bonne gestion offre l'une des opportunités les plus sûres pour les organisations de mettre en œuvre des innovations qui améliorent l'agilité, les possibilités de développement et l'efficacité opérationnelle. Cependant, il faut bien noter que la gestion des risques d’entreprise est toujours quelque chose de spécifique à chaque entreprise entre autres du fait de l’importance de la culture d’entreprise en matière d’acceptation des risques. Ce qu’une compagnie considère comme un niveau inacceptable de risque peut sembler parfaitement acceptable à des autres. Les processus de gestion des risques sont là pour aider les décideurs à évaluer les risques et à bien définir les ressources à prévoir pour leur gestion.
Chacun convient qu'il y a des risques qui peuvent être négligeables pour les organisations tandis que certains risques opérationnels peuvent gravement affecter le déroulement des affaires. Par exemple, une affaire peut être trop « bonne » et amener l'organisation au plafond de ses capacités de production. Au final elle peut être réellement bonne si elle se termine de façon profitable. Mais elle peut aussi se révéler mauvaise si elle fait perdre de l'argent et génère des perturbations dans le service des autres clients parce qu’en fait les capacités ont été surévaluées. Nous sommes là dans un cas typique de gestion des risques.
L’industrie des services financiers qui est particulièrement sensible à ce qui peut arriver à son argent est pionnière en matière de gestion des risques. Beaucoup de banques se sont concentrées ces dernières années sur le développement de méthodologie pointue de gestion des risques et ont prolongé leur réflexion au-delà du thème classique du risque de crédit en abordant d’autres thèmes, comme les risques de marché ou les risques opérationnels. En fait actuellement, les experts considèrent que les trois plus grands risques pour les sociétés financières sont le risque de marché, le risque de crédit et le risque opérationnel. Certains risques se contrôlent mieux que d'autres. Par exemple les risques de crédit peuvent être couverts par des réserves de perte ou différents mécanismes du même genre. Mais pour ce qui est des risques opérationnels, des établissements financiers ont disparu simplement parce qu'ils n'avaient pas prévu l’existence de traders escrocs.
Les règlements régulièrement augmentés pour le contrôle bancaire donnent des impulsions à de plus larges initiatives en matière de gestion des risques. Beaucoup de banques ont déjà dans des départements spécifiques des procédés pour contrôler les risques opérationnels et regardent maintenant comment diffuser ces pratiques à travers toute leur organisation. Au-delà des contraintes réglementaires, beaucoup d'institutions financières perçoivent bien les intérêts financiers et stratégiques d’une meilleure gestion des risques. Dans ce climat de normalisation intense, les directions des banques pourraient être invitées à fournir beaucoup de détails sur leurs risques, mais ceci peut ne pas être un problème, car avec de bons moyens de gestion des risques, les décideurs accèdent en temps réel à des informations détaillées et sont à même de fournir une image précise des risques suivant différents angles de vue.
Une bonne approche des risques offre aussi des avantages métier. Par exemple une banque équipée d’un système de gestion des risques intégrant en temps réel les événements pertinents à suivre, peut considérablement réduire son exposition aux risques pour certains clients. Un tel système peut également aider les services financiers à voir si les clients sont toujours dans les bonnes limites et donc continuer à répondre à leurs demandes en conséquence et ainsi augmenter l’activité. Les limites de contrôle peuvent être fixées par pays, groupes de produit, contre- parties, structures d'associé ou industries ou par n'importe quelle combinaison de ces éléments. Une fois que ces limites sont établies dans le système, le suivi des événements déclenche des alertes aux employés et ainsi ils peuvent gérer plus d'affaires sans avoir par exemple des délais trop longs pour statuer sur les crédits.
Les entreprises non financières commencent également à examiner l’intérêt de la gestion des risques. Par exemple, le plus grand risque pour une compagnie maritime peut ne pas venir des hasards inhérents au voyage maritime tels qu’une mer déchaînée ou une panne d’équipement, mais d’une mauvaise transmission d'informations aux autorités portuaires ou à des organismes gouvernementaux. Non seulement les amendes et les pénalités peuvent être importantes, mais de mauvaises déclarations peuvent entraîner une interdiction de naviguer qui peut maintenir à quai un navire pour des semaines laissant les clients attendre et l’équipage sans activité. Une initiative de gestion des risques peut aider à mettre sous contrôle les transmissions d'informations.
En BtoB les modèles de commercialisation impliquent de nombreux acteurs et ne se limitent pas à la relation du client / prospect avec le vendeur. Dans le monde des fournisseurs de solutions informatiques par exemple, analystes, journalistes, partenaires produits ou services, associations professionnelles, fournisseurs divers, influenceurs métier ou académiques pèsent plus ou moins fortement sur le cours de certaines affaires. Il revient au marketing de mettre en œuvre les moyens nécessaires pour influencer dans un sens favorable à la réalisation de ses propres objectifs, les attitudes et les comportements de ces acteurs clés. Mais il n’est pas toujours facile de développer des jeux communs avec ces différents acteurs et le plus souvent le marketing se trouve face à une situation de contradiction entre intérêt individuel et intérêt commun comme dans le fameux cas du Dilemme du Prisonnier de la Théorie des Jeux.
Cas du Dilemme du Prisonnier : Deux prisonniers complices sont interrogés séparément. Chacun peut trahir son partenaire (T) ou rester silencieux (S). Si les deux trahissent, ils vont en prison pour trois ans. Si l’un trahit et l’autre pas, le traître est libre et sa victime va en prison pour cinq ans. Si personne ne trahit, ils vont tous les deux en prison pour un an. Il est important de garder en tête que ces deux prisonniers – bien que complices – ne se connaissent pas bien et sont interrogés séparément : ils n’ont donc aucune idée de l’attitude de leur complice (va-t-il coopérer ou privilégier son intérêt personnel ?).
La matrice ci-dessous permet de faire apparaître les différents scénarios :
Silencieux Trahir
Silencieux 1 ; 1 5 ; 0
Trahir 0 ; 5 3 ; 3
L’analyse de la matrice permet de voir aisément que, quel que soit le choix de l’autre, un joueur a toujours intérêt à avouer. Pourtant, si les deux prisonniers n’avaient pas avoué, ils écoperaient chacun d’une seule année de prison au lieu de trois. C’est là le paradoxe qui a rendu célèbre le Dilemme du Prisonnier. Ce dilemme fait apparaître la contradiction – extrêmement répandue – entre intérêt individuel et intérêt collectif.
Pour sortir de cette impasse, on peut considérer que dans de nombreux cas les relations ne sont pas un « one shot », mais sont appelées à se renouveler régulièrement. Chaque joueur peut ainsi acquérir, au fil du temps, des informations sur le comportement de l’autre joueur. Le théoricien américain Robert Axelrod est arrivé, après expérimentation, à la conclusion que dans ce cas la stratégie du donnant-donnant (Tit for Tat en Anglais), dans laquelle le joueur commence par adopter une attitude coopérative, puis joue ce qu’a joué l’autre joueur à la partie précédente (coopération s’il y a eu coopération, défection, s’il y a eu défection), est la plus payante à long terme.
Pour être précis, les simulations d’Axelrod montrent que pour qu’une stratégie de donnant / donnant ait un sens, il faut que la situation de dilemme se représente à nouveau dans le futur et que le nombre d’opportunités soit inconnu des participants ou indéterminé. Sinon la solution classique du dilemme peut être préférée à un moment donné. Cette stratégie se révèle la plus efficace dans les simulations, mais attention dans la vie de tous les jours, rares sont les fois où nous percevons parfaitement ce que l’autre fait ou dit et où ce que nous faisons reflète vraiment ce que nous voulons faire.
Quoi qu’il en soit, pour être efficace au dilemme du prisonnier il faut suivre les lignes directrices suivantes. 1°) Ne pas être trop envieux : ne pas réfléchir en termes de jeu à somme nulle, la maximisation de ses gains passe invariablement par celle des gains des autres. 2°) Ne pas être le premier à faire cavalier seul : il est payant de coopérer tant que l’autre joueur en fait autant (attention à bien être dans un jeu suffisamment répétitif). La malveillance peut être profitable au début, mais elle finit par détruire l’environnement qui lui permettait de survivre. 3°) Pratiquer la réciprocité dans la coopération comme dans la défection : le jeu strict est le plus performant, le tit for two tats’ est moins performant. Être indulgent (revenir tout de suite à la collaboration si elle est offerte), mais attention le niveau d’indulgence dépend de l’environnement (il faut en tenir compte dans certaines circonstances). 4°) Ne pas être trop malin : les stratégies compliquées ne marchent pas mieux, il est préférable d’avoir un comportement clair et donc prévisible (à court terme on peut être roulé, mais à long terme on l’emporte).
Pour le Marketing il s’agit de non seulement pratiquer les stratégies de donnant-donnant mais aussi d’amener les forces commerciales de son entreprise à les pratiquer. Dans ce cas pour favoriser l’émergence de coopération (de partenariat), il convient de modifier les règles du jeu pour les vendeurs, comme augmenter la perspective de long terme, modifier les gains, enseigner la réciprocité, ou améliorer les capacités de reconnaissance des joueurs.
Un environnement de confiance, de confidentialité et de sécurité est indispensable pour les affaires. Or depuis quelques années, les nouvelles technologies de l’information favorisent la collecte, le stockage, l’exploitation, la diffusion d’une masse sans précédent d’informations souvent nominatives et le développement d’approches marketing individualisées impliquant la mobilisation de toutes les ressources des entreprises pour optimiser les relations clients au sein d’un éventail toujours plus riche de canaux de distribution. Tout ceci met en question la protection de la vie privée des consommateurs et ce point est devenu particulièrement crucial aujourd’hui avec les nouvelles approches de marketing événementiel qui visent à interagir en temps réel avec le client où qu’il soit et amènent les entreprises à largement partager en leur sein des informations clients.
Les clients sont gênés du fait que les entreprises les connaissent de plus en plus finement. En effet elles peuvent maintenant en cumulant des informations (transactions, comptes rendus de dialogues, navigations sur le web …) profiler chacun de leurs clients et connaître : leur nom, prénom, adresses, âge, catégorie socioprofessionnelle... ce qu’il a, son patrimoine mobilier et immobilier, ce qu’il voudrait, ses projets (court, moyen, long terme), ses relations (qui il connaît et dans quel contexte, études, loisir, travail..), ses charges (nombre de personnes dans le ménage, mensualités....), ses revenus (salaires, primes, héritages ....), ses valeurs (ce qui compte pour lui, ses critères de satisfaction, ses goûts, ses loisirs), son évolution par rapport à un historique, sa profitabilité passée, présente et potentielle à court, moyen et long terme.
Malgré toutes les précautions que les entreprises prennent pour gérer leurs opérations, le client n’est peut être pas toujours à l’abri de fuites d’informations, de piratages, de données fausses, de pannes, de malveillances, d’erreurs, d’usurpation d’identité sans parler du syndrome Big Brother. L’utilisation de données nominatives est cependant réglementée. Un système informatique n’est autorisé à collecter de telles données que s’il a des finalités clairement définies et légitimes. En outre les données demandées doivent être pertinentes et proportionnées par rapport à l’objet des traitements. Les données ne peuvent être conservées au-delà de la durée nécessaire aux finalités pour lesquelles elles ont été enregistrées. Dans tous les cas le client doit être informé de sa mise en fichier ; il peut (en dehors de quelques exceptions) s’opposer à ce que son nom figure dans un fichier ; il a un droit de contrôle (qualité, utilisation) et de correction. D’une façon générale les entreprises devront d’ici quelques mois être en conformité avec le GDPR, ou General Data Protection Regulation, le nouveau règlement européen. Enfin aucune entreprise ne peut transmettre de données nominatives sur des citoyens de l’Union européenne dans des pays ne respectant pas les directives européennes.
Dans un tel contexte, il est indispensable que les entreprises définissent leur politique de gestion de l’information, en prenant en compte cette dimension de protection de la vie privée. En effet, toute personne a légalement droit au respect de son intimité : son domicile, son image dans un lieu privé, sa correspondance, ses télécommunications, ses paroles prononcées à titre privé ou confidentielles, son image captée, ses données informatiques nominatives. Concrètement pour une entreprise il convient de : définir un responsable, publier une charte d’engagement vis-à-vis de ses clients, mettre en place des moyens pour notifier l’enregistrement des données et les utilisations prévues, gérer les choix restrictifs individuels, permettre de consulter, de corriger, de rendre anonyme des enregistrements, de comptabiliser les utilisations, enfin de restreindre l’accès et l’utilisation des données nominatives, notamment en matière d’analyse de données, de décision automatisée, de marketing direct et de transmission à des tiers. De façon plus précise, il est interdit de gérer certaines données sensibles (race, origine ethnique, opinion politique, religion, affiliation à un syndicat, santé physique ou mentale, vie sexuelle, condamnation) et il convient d’éviter certains usages (télémarketing incessant, cross-mailing à l’intérieur d’un groupe, spam, scoring non documenté, diffusion interne d’informations nominatives, ventes de données).
Respecter la vie privée des clients représente beaucoup de contraintes, mais les entreprises doivent pouvoir aussi transformer en opportunité relationnelle les souhaits de protection des consommateurs. Il s’agit alors de mettre en place une approche qui permette d’être à l’écoute du client, d’affiner la connaissance de son profil avec sa participation, de ne pas se limiter à mettre en œuvre les protections prévues par les lois, mais de prendre l’initiative d’aller plus loin en fonction des spécificités du métier de l’entreprise et de garder ainsi pour longtemps des relations intimes avec les clients. Ainsi les entreprises peuvent améliorer la connaissance de leurs clients tout en respectant les lois.
Pour aller plus loin sur ce sujet, vous pouvez utilement consulter les sites ci-dessous :
CNIL www.cnil.fr
Privacy alliance www.privacyalliance.org
Privacy exchange www.privacyexchange.org
Privacy international www.privacyinternational.org
L’innovation est le moteur de la croissance économique. Les responsables marketing sont donc toujours à la recherche d’innovations (stratégique, produit ou processus), car même si l’innovation est toujours une activité à risque, ils sont incités à innover pour se créer des occasions de « surprofit ». Aujourd’hui une des voies simples consiste à bien utiliser les nouvelles technologies de l’information et des communications, mais attention pour une organisation innover exige toujours d’apprendre au niveau individuel et collectif.
L’innovation stratégique naît de la remise en cause radicale par l’entreprise des composantes de son modèle d'affaires qu’il s’agisse de la valeur pour son client ou de sa propre chaîne de valeur. Cette forme d’innovation permet de renforcer la position concurrentielle y compris dans les marchés sans croissance.
L’innovation « produit » est une invention technique qui a trouvé son marché. Invention et innovation sont deux notions distinctes. L’invention est entendue comme « la création d’une nouvelle ressource pour l’entreprise » alors que l’innovation correspond à la mise sur le marché d’un bien intégrant une nouvelle ressource. Il est à noter qu’il y a beaucoup plus d’inventions que d’innovations, car si les inventions ne rencontrent pas les conditions économiques, sociales, institutionnelles favorables, elles tombent dans le vide. Il est bien connu qu’en 1750 de nombreuses découvertes techniques ont eu lieu en Chine, mais du fait de l’absence de contexte favorable elles n’ont pas été localement exploitées. Inversement à la même époque l’Angleterre a su importer et exploiter à son profit des inventions d’autres pays (Allemagne, Pays-Bas, France, Italie).
Cependant, c’est toujours sur le terrain de l’usage que se gagne la bataille de l’innovation. L’usage va permettre à la technologie de trouver une place qui n’est pas toujours celle que son inventeur lui destinait. Par exemple, le rail a été à l’origine mis au point pour faciliter l’extraction du charbon dans les mines et le transistor pour s’affranchir des lampes. Introduire un nouveau produit (ex. le Post it) représente un risque, d’autant plus grand qu’il faut faire émerger le besoin et éduquer le client. Attention au rejet de ce que l’on ne connaît pas, l’inconnu est toujours jugé dangereux et généralement les consommateurs rejettent les concepts les plus innovants.
Si l’on prend le cas des nouvelles technologies de l’information & des communications, leur apport ne se lit pas immédiatement dans les comptes d’exploitation, mais dans les innovations qu’elles génèrent : impact sur la productivité finale et possibilité de se différencier de la concurrence. L’apport principal pour les entreprises utilisatrices est la capacité à apprendre et à inventer de nouvelles stratégies organisationnelles et concurrentielles qui permettent de faire la différence. Pour sortir des cas habituels (Amazon, eBay, …, Wal Mart, Fedex, …) et regarder l’apport des nouvelles technologies au niveau de tout un secteur par exemple, dans l’industrie automobile elles ont permis de donner un nouveau souffle, par le développement du juste à temps, de la qualité totale, de la modélisation virtuelle, de l’ingénierie simultanée et de nouvelles formes d’intégration des fournisseurs dans la conception, côté interne et de nouvelles fonctionnalités pour les automobilistes (GPS, caméra de recul …).
Les innovations radicales qui créent une rupture forte pour l’utilisateur sont rares dans le domaine des nouvelles technologies de l’information et des communications (l’ordinateur en 45, le microprocesseur en 71, le navigateur en 91). Les nouvelles technologies apportent essentiellement des innovations incrémentales. Il ne s’agit donc pas d’être dans une logique achetez des nouvelles technologies et vous verrez, mais il convient de les utiliser pour adapter son modèle d’affaires (produits/services, organisation, etc. …) et tirer profit des nouvelles possibilités offertes. Mais attention les projets intégrant de nouvelles technologies et particulièrement en informatique échouent généralement par absence de cadrage stratégique, absence d’étude d’impact, survente par des consultants, le tout habituellement lié à une maîtrise d’ouvrage insuffisante ou absente et pour finir on rend généralement responsable de l’échec les utilisateurs accusés de faire de la résistance au changement ou le client de passer à côté des innovations.
Pour les responsables marketing les nouvelles technologies de l’information et des communications offrent de nombreuses possibilités d’innover dans le positionnement de leur offre, au niveau du produit en offrant de nouveaux services (la personnalisation du produit) au niveau du prix (par exemple la tarification variable), au niveau du canal de distribution (en multipliant les canaux de vente), au niveau de la communication avec le marketing base de données ou en utilisant de nouveaux médias via le web.
Quand une entreprise intègre dans sa stratégie le fait de focaliser son organisation sur ses clients, il est certain que si elle ne va pas essayer de traiter tous ses clients de la même façon, elle va quand même chercher à optimiser les « expériences » que ses clients ont avec elle. Ici optimiser ne veut pas dire maximiser et c’est bien entendu un optimum sous contrainte qui est recherché. Choisir un niveau d’optimum pour les expériences des clients nécessite d’arbitrer entre des intérêts externes (par exemple ce que les clients souhaitent) et des intérêts internes (chiffres d’affaires, marges), le tout dans un horizon temporel qu’il faut aussi fixer.
Concrètement il convient de traiter les principaux points suivants : créer des segments de clients durables, à partir d’une connaissance large des clients, incluant toutes leurs relations avec l’entreprise et ceci sur une période significative ; utiliser ces segments pour définir des scénarios des relations avec les clients dans le long terme qui puissent être mis en œuvre dans différents contextes d’interaction ; mettre en place des moyens qui permettent de reconnaître les clients, quel que soit le canal par lequel ils entrent en contact avec l’entreprise ; prendre en compte tous les besoins et donc intégrer tous les processus inhérents aux relations clients ; faciliter la réalisation d’analyse à tous les stades de façon à ce que les apprentissages possibles des expériences passées puissent être faits ; personnaliser l’offre au sens large, les produits et les expériences, de façon à ce que le client perçoive qu’il fait l’objet d’un traitement qui lui est spécifique ; gérer le portefeuille de clients, c'est-à-dire adapter les engagements de ressources pour assurer la qualité des expériences à la valeur des clients pour l’entreprise ; établir des règles et une discipline de façon à ce qu’à travers l’organisation les services soient assurés et à leur juste niveau ; organiser l’apprentissage de l’entreprise, partager les résultats de façon à faciliter la déclinaison des recettes de succès et éviter de persister dans l’erreur ; intégrer les équipes intervenant dans la chaîne de valeur de façon à ce qu’elles aient intérêt à travailler ensemble.
De fait il faut aussi que l’entreprise tienne compte de son niveau réel de maturité dans sa façon d’interagir avec ses clients pour définir des solutions pour les points listés ci-dessus. La tâche n’est pas triviale, mais les enjeux de satisfaction de la clientèle, de notoriété, de part de marché, de chiffre d’affaires et de marge sont motivants. Il faut absolument chercher à être progressif et cohérent dans l’introduction des changements dans l’offre, dans l’organisation et dans les outils. Il faut avant tout traiter le cas de l’entreprise et non plaquer une solution toute faite. Il n'existe pas de "one best way", ni de solution informatique unique et obligée. De fait il existe une grande variété de problématiques imputables à des situations d'entreprises très différentes (domaines d'activité, types de clientèle, culture organisationnelle, structure, etc.) qui doit nécessairement conduire à une diversité d'approches.
Les entreprises ne doivent pas compter sur une «approche métier » type pour optimiser l’expérience de leurs clients, ni non plus mettre en œuvre les mêmes technologies. Il faut en particulier éviter toute dérive techniciste et ne pas se focaliser sur les outils. Il convient d’avoir conscience de l’importance de la coordination de l’ensemble de l’entreprise et donc de la primauté des aspects métier.
L’optimisation des expériences client permet d’instaurer des relations plus durables et de consolider l’entreprise sur son marché. Très concrètement elle accroît la fidélité des clients et donc leur valeur pour l’entreprise, et autorise un développement de la connaissance du fonctionnement des marchés, source majeure de l’innovation. Cette approche permet de réfléchir et parfois de remettre en cause des composantes du modèle d'affaires à commencer par le mix des éléments formant la valeur pour le client ou sa propre chaîne de valeur. Tout cela débouche sur un renforcement de la position concurrentielle y compris dans des marchés sans croissance.
Le domaine décisionnel, au sens Système d’Information du terme, correspond à un des moyens qui permet à l’entreprise de répondre à ses besoins d’Intelligence économique, il couvre la partie « data », la partie données quantitatives par opposition à la partie « explication », à la partie qualitative du discours.
Le domaine décisionnel devient critique pour les entreprises et de plus en plus d’entreprises ont besoin de pouvoir accéder 24h sur 24, 7 jours sur 7 à leurs données historiques.
Le domaine décisionnel a été historiquement peu et mal pris en compte par les DSI qui ont toujours considéré le domaine opérationnel du Système d’Information comme prioritaire. D’une façon générale, les applications du type ERP ont été prioritaires par rapport aux entrepôts de données et à l’intérieur d’un thème fonctionnel comme celui de la gestion des clients, l’automatisation des canaux a été prioritaire par rapport à la partie analytique.
Le domaine décisionnel concerne tous les thèmes fonctionnels de l’entreprise, mais les besoins sont très différents d’une fonction à l’autre, en termes de volumes de données, de profondeur d’historique nécessaire, de nombre d’utilisateurs, de complexité des questions.
Les utilisateurs du domaine décisionnel sont très variés et ont besoin d’outils différents :
• Les spécialistes de l’analyse de données, déploient des outils spécifiques (big data, data mining, …), pour explorer sans hypothèse a priori leurs données pour travailler des sujets comme : la rétention des clients, la propension à acheter, définir des modèles de réponse, analyser des paniers,
• Les analystes métiers mettent en œuvre des outils statistiques et partent de quelques hypothèses faibles pour mettre au point : la tarification, des packages produits, le marketing événementiel, les ventes croisées,
• Les super-utilisateurs d’une fonction utilisent des outils multidimensionnels et partant d’hypothèses analyse les risques, les ressources, les promotions, …
• Les utilisateurs de base d’une fonction (Marketing, Contrôle de Gestion, ….) se servent de requêtes plus ou moins préprogrammées en fonction d’hypothèses fortes pour : analyse des résultats, faire des comparaisons, des comptages, …
Le domaine décisionnel a été couvert dans les entreprises de façon hétérogène et anarchique, avec une multiplication de moyens. Dans de nombreuses entreprises les mêmes données sont gérées plusieurs fois dans des bases différentes, il n’existe le plus souvent aucune vision d’ensemble et de nombreuses analyses souhaitables sont infaisables ou nécessitent des délais et des coûts rédhibitoires.
Cependant quelques grandes entreprises expérimentent avec succès des voies nouvelles (entrepôt de données d’entreprise intégré, plateforme de découverte, lac de données, moteur CEP (Complex Event Processing) et s’ouvrent ainsi un large champ de perspectives économiques et techniques.
Quoi qu’il en soit les compétences informatiques à mobiliser sont nombreuses variées et compte tenu de l’évolution des offres, les besoins de formation sont très importants.
Enfin, il est certain que le décisionnel est complexe et qu’il est absolument nécessaire d’avoir une approche d’urbanisation qui permet d’envisager un projet d’entreprise dans ce domaine en définissant un cadre cohérent, stable et modulaire dans lequel peuvent venir s’insérer les développements d’applications analytiques.
De la Gestion de ses Informations et de son Image
Chercher un avantage concurrentiel en tissant des relations avec des clients, pour mieux comprendre leurs besoins et leurs désirs, n’est pas nouveau. Exploiter des informations clients pour mieux se positionner est un réflexe commercial de base, que les entreprises ont d’autant plus facilement que pour la majorité la moitié de leurs bénéfices provient de 10% de leurs clients. Cependant, la plupart des entreprises vendant directement aux consommateurs échouent dans la gestion de l’un de leurs actifs majeurs : l’information client. La raison principale vient du fait que les entreprises n’ont pas une approche globale de la gestion de leur relation client.
Dans le contexte actuel de multiplicité des canaux de distribution et des offres analogues, le coût d’acquisition d’un nouveau client s’envole, les marges baissent et pour les produits en phase de maturité l’amortissement des coûts de recrutement peut nécessiter plus de deux ans de consommation et suppose donc une certaine fidélité. Tout cela conduit à la prolifération des programmes de fidélisation. Les entreprises développent donc des stratégies de focalisation client, qui les amènent à identifier leurs clients les plus intéressants ; créer des portefeuilles de clients homogènes (problématique, potentiel ...) ; se débarrasser des clients non profitables ; choyer les "clients avocats de leurs produits" ; se servir de leurs clients pour obtenir d'autres clients ; identifier les prospects les plus intéressants ; écouter, provoquer les suggestions de leurs clients ; et développer des programmes de fidélisation.
La plus grande difficulté dans ce type d’approche réside dans le fait que les hommes et informations nécessaires sont dispersés dans l’entreprise et relèvent de fonctions différentes comme le marketing, la finance, les ventes, les services après vente, etc. … Inversement les technologies de l’information ont tellement évolué, qu’aujourd’hui le stockage, l’analyse et l’accès distant à de grands volumes de données sont aisés. L’automatisation des Ventes & du Marketing apporte trois bénéfices majeurs : la réalisation d’approches commerciales des clients très personnalisées ; l’intégration des réactions des clients (produits, concurrents …) dans la définition de l’offre ; la création d’une infrastructure qui à moindre coût facilite la flexibilité et permet de constamment entretenir un portefeuille d’avantages concurrentiels (offre, personnalisation, coûts).
Pour obtenir ces bénéfices, les entreprises mettent en place des applications pour : cibler (segmentation) ; promouvoir (gestion de campagne marketing) ; fidéliser (fidélisation, rétention, attrition), prospecter (acquisition, vente croisée, additionnelle) ; suivre les résultats (ventes par produit, canal …) ; analyser la rentabilité (marge brute, nette …) ; définir l’offre (affinité, conception, chaîne d’approvisionnement).
Aujourd’hui, les entreprises utilisent le téléphone, internet, la poste, des vendeurs pour interagir avec leurs clients et plus particulièrement ceux à forts potentiels, mais il est essentiel pour réussir ces approches marketing de trouver la bonne combinaison de technologies et de ressources humaines qui permettent de mettre en œuvre une gestion optimum de la relation client : obtenir un signe d’intérêt, un premier achat ; augmenter la fréquence, la variété, le montant des achats ; réduire l’attrition et réactiver les inactifs.
Au moment de vous lancer dans ce type d’approche, pensez à la phrase de Sénèque : “ Il n’y a pas de vent favorable pour celui qui ne sait où aller ”. Gérer la relation client est un métier, des objectifs relationnels ne peuvent être atteints que dans la mesure où un cap est fixé et que quelques directives sont précisées de telle sorte que l’allocation des ressources et les choix d’actions opérationnelles puissent être réalisés pour permettre d’atteindre un objectif retenu. Un résultat significatif ne peut pas être attendu d’un ensemble d’activités déclenchées au hasard. Au de là du produit ou du service, la clé principale est dans la communication et dans la possibilité que le client a de différencier une offre. C’est pourquoi, positionnement et éléments de différenciation doivent être constamment maintenus attractifs et l’image de marque gérée. Les consommateurs se font une image des produits/services et des entreprises, à travers les emballages, les canaux d’interaction, le degré de courtoisie des réponses au téléphone par exemple, tout ce qu’ils voient ou entendent ; cette image les incitera ou non à acheter.
> A LIRE EN CE MOMENT SUR DECIDEO
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
-
La révolution des élites : quand l'IA redistribue le pouvoir
-
Informatica apporte sa contribution aux mégatendances de Microsoft Azure (IA générative, Microsoft Fabric et format en tables de données ouvertes) avec de nouvelles fonctionnalités
-
Dell Technologies présente les dernières innovations de Dell AI Factory pour propulser l’IA en entreprise
-
Eviden va tripler la capacité de calcul de la Finlande avec un nouveau supercalculateur d’IA
-
e-Attestations devient Aprovall
-
Neo4j dépasse les 200 millions de dollars de chiffre d’affaires et accélère son leadership dans le domaine de la GenAI grâce à sa technologie de graphes
-
Precisely nommé leader dans le rapport 2024 d’IDC MarketScape : Worldwide Data Intelligence Platform Software
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques