Créer son blog Recommander ce blog Avertir le modérateur

Dans une démocratie, le gouvernement est le gardien des renseignements qui concernent la population, et les citoyens devraient avoir accès à la plus grande partie possible des données les concernant, le plus rapidement possible. L’information est une base nécessaire de la démocratie dans un esprit de connaissance civique des affaires. L’information, sans être une forme précise de participation, est un préalable nécessaire à toute participation. Cependant, il n’y a pas de développement ni de construction de la démocratie sans mise à niveau des mentalités et des comportements, sans civisme et sans participation citoyenne. La démocratie suppose un niveau de conscience individuelle et collective qui n’est ni inné ni donné, mais qui s’acquiert par l’éducation. On ne naît pas citoyen, on apprend à le devenir.

En démocratie, l’accès à l’information est essentiel et les technologies de l’information ont un rôle important, comme l’a souligné Al Gore il y a de cela plus de vingt ans « Je vois un nouvel âge athénien de la démocratie forgé dans les forums créés par l’infrastructure globale de l’information ». L’Internet est un instrument permettant de stimuler et d’enrichir la discussion entre citoyens.

Ci-dessous j’ai regroupé mes articles sur ce thème des données, des informations, de l’open data et de la démocratie :

De l’analyse de données aux choix politiques

Les données quantitatives sont des arguments de poids

Les données sont le carburant indispensable de la dynamique démocratique

L’open data au service des citoyens pour contrôler les politiques et l’administration

Données/analyses/commentaires de qualité pour alimenter la démocratie

Bienvenu dans le monde de la post-vérité, où règne la désinformation

Rédigé par Michel Bruley le Mardi 24 Janvier 2017 à 16:21 | Permalien | Commentaires {0}

Tous les citoyens sont aujourd'hui concernés par l'usage des nouvelles technologies d’information (informatique, systèmes d’information, bases de données, etc.), de communication (téléphonie cellulaire, internet, intranet, réseaux, etc.) et de production (automatisation, robotisation, etc.). Les nouvelles technologies sont devenues un élément de la culture générale du 21ème siècle. Elles transforment les métiers et les professions, elles impactent fortement les Sciences et contribuent à l’élaboration, l’évolution des connaissances et créent un nouveau type de rapport au monde et à la connaissance.

Les nouvelles technologies sont en évolution constante, et il y a régulièrement des révolutions techniques plus ou moins importantes qui remettent en cause la place de certains fournisseurs. Cependant il y a des constantes qui se retrouvent toujours, des questions comme celle relative à leur impact sur la vie en société, les droits individuels ou celles relatives aux hommes et à leur capacité à intégrer, utiliser, développer ces nouvelles technologies.

J’ai regroupé ci-dessous mes derniers articles sur ce thème du développement des nouvelles technologies :

Big data et open source

Big data : Hadoop doit être au cœur de votre système d’information décisionnel


Seul l’apprentissage automatique permettra à de nombreuses entreprises de valoriser leur big data

De l’analyse à l’action : 50 nuances à prendre en compte

Lutte antiterroriste et mégadonnées vont-elles conduire à des atteintes à la vie privée

Rédigé par Michel Bruley le Lundi 12 Décembre 2016 à 14:07 | Permalien | Commentaires {0}

La numérisation de la société provoque de grands chambardements (penser à la numérisation de la photo, numérisation des textes, des livres, de la presse, de la musique, du cinéma, des télécommunications, des mesures ; penser à la multiplication des capteurs, à l’impact sur les entreprises, les clients mieux informés, les citoyens, les gouvernements … ), la numérisation génère donc beaucoup de données que l’on peut analyser (big data) et en outre partager facilement (open data)

Le big data pénètre désormais de nombreux secteurs d'activité. Des données bien exploitées dotent les entreprises d’un avantage concurrentiel difficile à battre. Le temps des affaires menées à l’instinct est révolu, l’ère de la décision par les données a sonné. La plupart des décideurs dans le monde ont adopté les outils analytiques pour les aider à prendre des décisions. À noter que pour les pionniers le big data ne booste pas l’avantage concurrentiel, il est au cœur même de leur modèle d'affaires.

Les moyens matériels ou logiciels nécessaires ont vu le jour et continuent à être développés pour lancer, accompagner cette vague qui ne fait que commencer. Tout va bien, mais un domaine mérite cependant beaucoup d’attention, c’est celui de la mobilisation des compétences indispensables pour profiter des opportunités offertes par le big data. Ci-dessous j’ai regroupé mes différents articles sur ce sujet :

Propos sur les conseils en big data

Mégadonnées : la construction d'algorithme nécessite toujours du jus de cervelle

L'analyste de mégadonnées ou big data doit se méfier de son enthousiasme

Big data : au-delà des incontournables solutions open source, il faut savoir mobiliser les bonnes compétences

Big data : Il faut un bon équipage pour ne pas se noyer dans le data lake

L’avenir est radieux pour les spécialistes de l’analyse des données

Rédigé par Michel Bruley le Samedi 12 Novembre 2016 à 12:06 | Permalien | Commentaires {0}

La mise en place de PGI se développe dans toutes les entreprises, quel que soit leur taille ou leur secteur d’activité et dans l’industrie par exemple la plupart des grands groupes en sont équipés. Les fournisseurs de PGI proposent, outre leurs solutions pour automatiser et intégrer les opérations des entreprises, des tableaux de bord pour piloter les activités. Or certains éditeurs, entraînés par leur volonté de promouvoir leur offre, en arrivent à dire qu’avec ces tableaux de bord ils répondent aux besoins décisionnels des entreprises, et ceci est totalement faux, car ce type de moyens ne correspond qu’au premier niveau d’aide à la décision sur une échelle de cinq niveaux.

Un tableau de bord est un outil de pilotage qui permet à un gestionnaire de suivre périodiquement un objectif prédéfini et si nécessaire de réagir. Il correspond donc au besoin d’une personne, suppose un ensemble de données de références, se compose d’indicateurs pertinents par rapport à un objectif métier et est généralement publié à date fixe. Il correspond à la partie contrôle d’un cycle classique de gestion (planification, organisation, direction, contrôle) et grâce à un ensemble de données agrégées il permet de mesurer le niveau de performance (efficience, efficacité, économie, qualité …) d’une entité et d’être à l’origine d’éventuelles actions correctives.

Anticiper, formaliser les objectifs détaillés d’une entité, suivre périodiquement le déroulement des opérations et mener des échanges sur les résultats sont des actions clés d’une direction. Cependant ce ne sont pas les actions les plus créatives de valeur, il s’agit simplement de piloter au mieux l’entité vers des buts qui ont été définis par ailleurs avec d’autres moyens et précisément d’autres composants du système d’information que les tableaux de bord. Autrement dit les tableaux de bord sont nécessaires, mais très largement insuffisants pour permettre à une entreprise de s’insérer dans le monde compétitif d’aujourd’hui.

Fixer des stratégies, rechercher systématiquement à identifier et valoriser des avantages concurrentiels (marchés, produits, processus, connaissances) sont parmi les actions les plus porteuses de valeur pour une entreprise. Pour ce faire il convient de pouvoir aller au-delà du simple « que se passe-t-il ? » et faire par exemple des simulations, des analyses de sensibilité, d’optimisation qui prennent en compte des hypothèses, des cibles et des scénarios. En termes de systèmes d’information, il faut un lac de données et divers moyens pour faire parler les données historiques de façon non prévue et grâce à des analyses mieux comprendre son contexte, ses activités et en tirer des enseignements, des prédictions. Nous sommes là dans les niveaux deux et trois du décisionnel.

Pour revenir aux PGI, il est certain qu’ils constituent une solution logicielle incomparable pour harmoniser la gestion des procédures des entreprises et faciliter l’interaction en temps réel entre les grandes fonctions. En terme de positionnement parmi les outils de traitement de l’information ils permettent de couvrir les besoins de gestion des opérations, mais pour les autres besoins il faut d’autres moyens : coopération (groupware, workflow, …), décisionnel (lac de données, data mining …), communication (internet, intranet, extranet …).

Les entreprises ne peuvent pas se contenter pour répondre à leurs besoins décisionnels de déployer les tableaux de bord associés à leur PGI. Elles doivent mettre en place un ensemble de moyens spécifiques pour couvrir leurs besoins décisionnels. Ces derniers ne transformeront pas automatiquement la façon de faire leurs affaires, ils apporteront seulement des potentialités qui devront être exploitées. Il est clair qu’une organisation ne peut pas passer en une seule étape de tableaux de bord PGI à un cet ensemble de moyens, mais par une urbanisation des systèmes décisionnels et un lotissement correct des projets, une grande entreprise peut en quelques mois mettre en place un lac de données, ses premières applications décisionnelles actives et commencer à exploiter ses données & ses big data.
Rédigé par Michel Bruley le Lundi 2 Mai 2016 à 09:06 | Permalien | Commentaires {0}

Tout cuisinier sait que la réussite d'un chef-d'œuvre culinaire réside en grande partie dans les ingrédients. Il est difficile de préparer un excellent repas si les ingrédients sont mauvais ou si leur combinaison n'est pas adéquate. Il en va de même pour l'analyse de données. Si les données sont incomplètes, inexactes, ou sans rapport avec le problème à résoudre, il sera difficile, voire impossible, de créer un modèle. Par exemple, si le modèle de calcul de la valeur des clients attribue un faible score à certains clients rentables, car les transactions en ligne ou les commandes spéciales ne sont pas prises en compte, il y a le risque de perdre certains des meilleurs clients. L’efficacité d’un modèle d'analyse de données est donc directement proportionnelle à la qualité des données. En d'autres termes, on ne peut pas cuisiner un bon repas avec de mauvais ingrédients.

L'analyse de données exploite des algorithmes de statistiques et d'apprentissage automatique pour trouver des informations qui peuvent contribuer à résoudre les problèmes quotidiens que rencontrent les entreprises. Lorsque les utilisateurs font de l'analyse de données, ils mettent en œuvre en général des algorithmes mathématiques tels que des réseaux neuronaux, des arbres de décision et d'autres techniques statistiques complexes qui servent à rechercher des tendances dans les données. S'il est vrai que ces algorithmes sont une partie importante de l'analyse de données, il convient de noter que ces outils recherchent des tendances dans n'importe quelles données, quelles que soient les capacités de ces dernières à représenter les comportements et les tendances que l’on essaye de modéliser. Pour cette raison, la préparation des données est l'une des étapes les plus critiques dans l'analyse de données et pourtant, il s'agit souvent de l'une des étapes les plus négligées.

La première étape dans la préparation des données consiste à recueillir les données relatives au problème à résoudre. Si un utilisateur possède un data lake, le processus est considérablement simplifié. Au contraire, si les données sont stockées en divers endroits, il faut explorer plusieurs sources afin d'identifier les données disponibles pour résoudre le problème. Dès que les données qui doivent être analysées sont définies, il convient de les intégrer, les évaluer et éventuellement les transformer pour s’assurer qu'elles sont valides d'un point de vue conceptuel, cohérentes et statistiquement analysables. Par exemple, si les données proviennent de différentes sources, il faudra résoudre de nombreux problèmes de formats et de définitions.

Même si un utilisateur a la chance d'avoir un data lake, les données qu'il contient ne conviendront probablement pas en l’état pour l’analyse envisagée. Il faut alors isoler et préparer des données pour le modèle. Cela signifie qu’il faut travailler en collaboration avec les analystes et les experts en données afin de définir les éléments qui sont nécessaires pour réaliser le modèle. Il est primordial, pour chaque variable, de définir s’il faut utiliser toutes les données ou uniquement un sous-ensemble. Il convient aussi de définir une stratégie pour traiter les valeurs aberrantes (données hors norme) ou éventuellement développer quand même un modèle reposant sur ces valeurs. Par exemple, si l’objectif est de prévoir les taux de fréquentation et les revenus de rencontres sportives, il faut certainement éliminer les chiffres de fréquentations anormales dues à des événements particuliers, grève des transports, etc.… Au contraire dans le cas de la détection de fraudes, il peut-être pertinent de se concentrer sur certaines valeurs aberrantes, car elles sont peut-être la représentation de transactions frauduleuses.

Une fois que les données sont sélectionnées, il convient de les analyser à l'aide de techniques de statistique descriptive et de visualisation pour identifier les problèmes de qualité et mieux comprendre les caractéristiques des données. Des problèmes de qualité des données peuvent être mis en lumière, tels que des valeurs manquantes qui peuvent nuire à l'intégrité de n'importe quel modèle d'analyse. Il faut alors compenser et corriger les problèmes identifiés. Ainsi, s'il manque des données, il faut déterminer la meilleure méthode pour abandonner ou remplacer ces valeurs manquantes. Certaines techniques d'analyse de données permettent d’estimer les valeurs manquantes sur la base d'autres valeurs mesurées.

Il existe de nombreuses techniques qui peuvent être employées pour obtenir de meilleurs modèles. Il s'agit par exemple de créer des variables "dérivées", de remplacer des valeurs manquantes ou d’utiliser des techniques d'agrégation ou de réduction des données. Il peut être nécessaire de rechercher les meilleurs agrégats ou de nouvelles variables analytiques pour construire un modèle optimum. Par exemple, dans le cadre de la préparation des données relatives aux clients en vue d'un programme de marketing pour un nouveau prêt, le rapport endettement/revenu peut être un indicateur mieux adapté que le seul revenu ou le seul endettement.

Enfin, les données doivent être transformées dans un format adapté aux algorithmes d'analyse. De nombreux algorithmes d'analyse de données requièrent la transformation des données de classification (non numériques) en données numériques ou la réduction de celles-ci dans une plage particulière. Certains algorithmes et techniques statistiques nécessitent également que les données numériques possèdent des propriétés spécifiques qui n'existent peut-être pas dans les données avant la transformation. Pour ces variables, il faudra peut-être les encoder à nouveau ou les transformer pour produire les variables adéquates pour les techniques d'analyse de données. Ainsi la valeur des données est directement proportionnelle au temps et au soin consacrés à leur préparation en vue de régler un problème analytique particulier.

À l'instar de ce que dirait un cuisinier en préparant son plat, la qualité du résultat final dépend en grande partie des ingrédients, mais on voit bien que les processus décrits ci-dessus ne peuvent être mis en œuvre avec succès que par des équipes compétentes. Pour aller plus loin sur ce sujet vous pouvez utilement consulter mon article intitulé : L’analyste de « Mégadonnées ou Big Data » doit se méfier de son enthousiasme : cliquez ici



Rédigé par Michel Bruley le Lundi 4 Avril 2016 à 09:01 | Permalien | Commentaires {0}

La théorie veut que l’exploitation des données historiques consiste à les transformer en informations, puis en connaissances et enfin en sagesse. Ainsi l’utilisation des données historiques dans les entreprises ne doit pas être limitée à produire des tableaux de bord ou des indicateurs. Il y a un intérêt limité à mettre en œuvre un entrepôt de données uniquement pour faire le point de la situation présente sans se préoccuper par exemple de la dynamique historique ou de se projeter dans le futur.

Un entrepôt de données peut être exploité selon quatre angles. En premier l’évaluation des performances permet d’appréhender ce qui s’est passé. En second l’analyse du pourquoi cela s’est-il passé, conduit à établir des connaissances qui sont l’une des sources des avantages concurrentiels de l’entreprise. En troisième l’application de modèles analytiques qui synthétisent des connaissances aide à la prise de décisions. Enfin le support au fonctionnement opérationnel grâce à des alertes et des mises en œuvre automatiques de consignes qui suppose une maîtrise suffisante des processus pour « industrialiser de l’intelligence », apporte à l’entreprise une capacité de réaction temps réel qui est nécessaire au rythme accéléré des affaires d’aujourd’hui.

Les données historiques doivent permettre d’optimiser les processus de l’entreprise et en particulier ceux des cinq fonctions stratégiques : conception, production, marketing-vente, finance et ressources humaines. Mais elles doivent aussi être utilisées en particulier pour appréhender deux domaines clés de la vie de l’entreprise, celui des marchés & des produits et celui des techniques qui fondent la création de valeur de l’entreprise. Si au niveau de l’analyse des processus les données extraites des systèmes opérationnels de type PGI sont suffisantes, même si des données de benchmarking sont indéniablement un plus, pour l’analyse des marchés, il faut d’autres sources qui permettent d’englober ce que font les clients en dehors de la relation avec l’entreprise et en particulier ce qu’ils font avec les concurrents. Les entrepôts de données ont donc pour vocation d’accueillir toutes les données historiques internes ainsi que des données externes à l’entreprise, ponctuellement dans le cas de benchmarking ou d’études occasionnelles, ou régulièrement dans le cas de statistiques de la profession ou d’études régulières. Le rapprochement de données internes et externes est un exercice difficile qui a peu de chance d’aboutir si l’on ne dispose pas de données historiques détaillées.

Quel que soit le domaine de gestion, l’entrepôt de données est un des moyens qui permettent de piloter l’entreprise et de l’adapter à son environnement. Si l’entreprise arrête d’évoluer, elle se condamne. L’entreprise doit régulièrement revoir son portefeuille d’activité et son rôle dans la chaîne de valeur en partant du point de vue du client. Elle doit constamment chercher à développer, élargir, spécialiser, adapter ses lignes de produits à ses marchés et à des marchés nouveaux. Elle doit en permanence revoir l’organisation de ses processus et de ses compétences (intégration amont/aval, outsourcing). Enfin elle doit maîtriser la mise en œuvre et l’intégration des nouveautés technologiques de toutes natures relatives à son activité et en particulier les nouvelles technologies de l’information et des communications.

Malheureusement les entrepôts de données aujourd’hui disponibles dans les entreprises françaises n’ont la plupart du temps pas été conçus comme des supports à la stratégie et à la dynamique de l’entreprise, ni par les données retenues, ni par leur niveau de granularité, ni par leur fréquence de mise à jour, ni par leur organisation le plus souvent en gisements cloisonnés par fonction. Dès lors le plus souvent les réflexions sont fondées sur des approches trop synthétiques, à partir de données trop agrégées, analysées selon des schémas prédéfinis et tout cela conduit à de pauvres résultats. L’analyse doit précéder la synthèse. Une solide base d’informations détaillées ne contraint en aucun cas l’analyste, au contraire elle lui permet de s’exprimer librement et d’enrichir progressivement sa façon de poser son problème. Les idées créatrices naissent d’une interpellation des faits et l’analyste a besoin de vérifier ses intuitions et extrapolations par des retours aux faits.

Lors de la construction d’un entrepôt de données, on ne doit donc pas mettre en tête des préoccupations des aspects techniques ni chercher d’emblée une optimisation de sous fonctionnalités spécifiques à quelques individus. Il convient de prendre en considération l’ensemble de l’organisation concernée, son activité, sa stratégie et de bâtir une solution d’entreprise robuste fondée sur un gisement détaillé qui doit permettre d’affronter les aléas de la vie des affaires et éviter d’être obsolète peu après son lancement. Obsolète, car la stratégie évolue, l’organisation change et les indicateurs se révèlent rapidement inadéquats après quelque temps d’usage.

Enfin il convient de noter que les experts indépendants recommandent de mettre Hadoop au cœur de son système d’information décisionnel. Pour plus de précision sur cette recommandation on peut utilement consulter le lien suivant : cliquez ici

Rédigé par Michel Bruley le Vendredi 4 Mars 2016 à 14:31 | Permalien | Commentaires {0}

Depuis quelques années, les études réalisées sur la prise de décision dans les grandes entreprises constatent que les interviewés disent devoir prendre de plus en plus de décisions pour mener leur stratégie de gestion globalisée. Comme au même moment les responsables cherchent à être le plus rationnels possible et à tout aborder de façon scientifique, les fournisseurs de solution se voient un bel avenir.

Le support qu’une entreprise attend d’un système d’information pour s’aider dans une prise de décisions est fonction du niveau et du type de décision concerné. Mais il faut avoir conscience qu’information et décision ne sont pas des notions simples, en effet une information peut être une désinformation, et une décision une absence de décision. Décider est différent de ratifier, c’est aussi créer et imaginer. Dans certains cas, décider amène à fixer des règles, mais appliquer une règle n’est pas considéré comme une prise de décision, alors que ne pas appliquer une règle est vu comme une décision. Enfin, souvent le contenu d’une décision sert d’information pour prendre une autre décision, il peut y avoir alors un réseau de décisions avec des liens de dépendance et des liens pour information et pour action. Cependant, il convient de noter que toutes les actions ne sont pas la suite d’une décision.

Les gourous du management s’accordent pour distinguer quatre niveaux de décision pour les entreprises. Les décisions stratégiques définissent les relations de l’entreprise avec son environnement (choix des activités, des marchés, des filières technologiques …), elles fixent des axes et des politiques pour le long terme. Les décisions d’organisation définissent les structures, les processus, les systèmes d’information (métier, mission, délégation, responsabilité, moyens …) elles fixent le cadre de travail dans une perspective de moyen terme. Les décisions de gestion définissent pour le court terme la direction et la performance attendue (objectifs, ressources, contrôle …). Enfin, les décisions opérationnelles s’intéressent au fonctionnement quotidien tant au niveau de la supervision que de l’exécution.

Les décisions des différents niveaux peuvent être de différents types. Il y a les décisions non structurées, uniques, non routinières, ou l’incertitude est grande qui requiert beaucoup de jugement et présente des risques. À l’opposé, il y a les décisions structurées, répétitives, routinières, aux procédures définies qui laissent peu de place à l’incertitude. Entre les deux, il y a les décisions semi-structurées ou quelques facteurs introduisent des risques.

Face à une décision un responsable peut adopter différents comportements comme ne pas décider, s’en remettre au hasard, agir puis réfléchir, se fier à son intuition, réfléchir en solo, analyser des chiffres, se tourner vers un tiers, opter pour le collectif et enfin faire comme tout le monde. Qu’il travaille seul ou pas, en utilisant des moyens ou non, s’il ne s’abstient pas, il passe par quatre phases décisionnelles. Une phase d’instruction avec collecte d’information pour identifier le problème, les opportunités et définir ce qui peut faire une différence. Une phase de conception pour trouver, modéliser des options, définir et évaluer les solutions. Une phase de sélection de la ligne de conduite à adopter par comparaison des choix et prévisions des résultats. Enfin une phase de mise en application et d’évaluation des résultats.

Dans ce contexte rapidement esquissé et sans rentrer dans les dimensions fonctionnelles ou sectorielles, il est facile de comprendre que pour répondre à ces besoins il ne peut pas exister une solution universelle. Même le gisement centralisé de données détaillées que les grandes entreprises affectionnent tant n’est pas l’unique source des informations de certains décideurs. Les entrepôts de données gèrent des informations « blanches » issues des activités historiques des compétiteurs d’un marché, mais dans certains cas il est nécessaire de s’appuyer sur des données « plus ou moins grises » issues de la veille, de l’intelligence économique ou du renseignement. Par exemple, dans le cadre d’une négociation le fait de disposer de renseignements précis sur les interlocuteurs clés peut être un atout décisif.

Il faut être humble, le domaine du décisionnel est particulièrement complexe beaucoup plus que celui de la gestion administrative des activités qui est couvert par les ERP par exemple. Une grande entreprise ne saurait couvrir ses besoins en s’appuyant sur les solutions d’un seul éditeur. Les fournisseurs le savent bien qui tout en proposant leurs moyens d’infrastructure ou des applications décisionnelles issues de la capitalisation d’expériences de certains de leurs clients, multiplient les accords de partenariat et ouvrent technologiquement au maximum leurs solutions pour qu’elles s’intègrent au mieux dans les systèmes hétérogènes et complexes des grandes entreprises globalisées d’aujourd’hui.

Rédigé par Michel Bruley le Vendredi 1 Janvier 2016 à 16:00 | Permalien | Commentaires {0}

Faire de l’information une source de la compétitivité, c’est l’objectif que les systèmes décisionnels proposent aux plus grandes entreprises mondiales à travers la mise en œuvre de solutions d’infrastructure de gestion et d’analyses de données. Les entrepôts de données facilitent la compréhension du passé et du présent, l’anticipation du futur, la réalisation des actions et la capitalisation des connaissances. Dans le contexte de mondialisation qui est le nôtre aujourd’hui, les entrepôts de données bouleversent nos habitudes de management, nos stratégies, nos besoins en compétences et nos capacités à nous adapter à un monde complexe en perpétuelle évolution. Il faut se rappeler la phrase de Darwin « Ce ne sont pas les espèces les plus fortes qui survivent, ni les plus intelligentes, mais celles qui sont les plus à même de s’adapter aux changements ».

La première application des systèmes décisionnels a été l’aide aux décisions stratégiques. En effet, la stratégie qui était d'abord l'art de la guerre étend désormais son application à la plupart des activités humaines et notamment aux entreprises. Information et stratégie sont étroitement liées, car c'est à partir de la connaissance de la situation que l'action peut être décidée. Autrefois nous nous appuyions sur une logique en trois volets : stratégie/ mise en œuvre/ bilan. Aujourd'hui, la logique est plus cyclique : stratégie/ test/ réévaluation nécessaire/ aménagement de la stratégie/ test/, etc., car comme l’a dit un général lors de la dernière guerre d’Irak « aucun plan ne survit au contact de l’ennemi ».

L'information que nous prenons en compte dans le processus d'élaboration d'une stratégie est trop souvent l'information que nous avons nous-mêmes sélectionnée, c’est-à-dire celle qui peut servir notre stratégie. Pour ce motif, il est essentiel de séparer le donneur d'information du décideur. Il faut dans l’entreprise prendre comme modèle la sphère militaire, où l'on s'est toujours efforcé de séparer la responsabilité de l'information de celle de l'action. Sur un navire de guerre, par exemple, il existe d'un côté un officier spécifiquement chargé de recueillir et de traiter toutes les informations, et de l'autre des "metteurs en œuvre". Leurs fonctions respectives sont tout à fait exclusives, et cette dissociation est essentielle pour garantir une objectivité au niveau stratégique.

En stratégie, il faut appliquer des méthodes pour assurer une objectivité dans la prise de décision, mais force est de constater que les décideurs ont tendance à privilégier une perception intuitive des situations aux dépens des informations objectives. Dans les écoles de guerre, on enseigne ainsi des méthodes qui prennent en compte la situation, les objectifs et les modes d'action – des alliés comme des adversaires – et amènent à croiser ces données. L'exercice est souvent fastidieux, mais très profitable. L'information est indispensable dans l'élaboration d'une stratégie, mais certaines données sont difficilement quantifiables, par exemple comment évaluer la résistance potentielle d'un concurrent ? Comment quantifier sa détermination ? De plus il faut se méfier de l’intox et les veilleurs (technique, concurrence …) doivent se rappeler la phrase de Sun Tzu « tout l’art de la guerre est fondé sur la duperie ». L’information est souvent un mélange de données quantitatives et qualitatives et il semble difficile d’en obtenir une cohérence. C’est en fait le niveau de culture des co-décideurs et le dialogue qu’ils ont instauré qui permettent cette cohérence.

Aujourd'hui, l'on tend à concentrer de nombreux systèmes au sein de systèmes d'information uniques et de plus on tend à intégrer le décisionnel et l’opérationnel. Dans le monde militaire, ce phénomène existe aussi depuis quelque temps, par exemple le porte-avions Charles de Gaulle, est un modèle du genre, il dispose déjà d'un système qui fonctionne en temps réel et qui est très structurant pour l’organisation du navire. En matière de commandement (management), tout ceci n’est pas sans inconvénient, car si l'on peut voir en temps réel depuis les quartiers généraux (directions générales) l’action sur le terrain, on prend le risque d'une trop grande ingérence des échelons supérieurs. Or le manque de connaissance des réalités du terrain (les systèmes appréhendent toujours partiellement la réalité) rend toute intervention de ce type dangereuse. Ceci explique le développement de la réflexion sur le « Pilotage stratégique » dans les entreprises et la recherche de solutions (Balanced Scorecard, Businesss Activity Monotoring, …).

Rédigé par Michel Bruley le Mardi 24 Novembre 2015 à 12:17 | Permalien | Commentaires {0}

Aujourd’hui il devient essentiel de pouvoir mesurer avec précision la valeur de chaque client. L’expérience a montré que les approches ‘intermédiaires’ consistant à analyser la rentabilité sur la base d’échantillons ou de moyennes sont par trop restrictives et rigides pour assurer la flexibilité, la réactivité et la créativité commerciale aujourd’hui indispensables.

Le calcul de la valeur des clients (valeur actuelle et potentielle) est la clé privilégiée de l’approche différenciée des clients et du pilotage de la création de valeur sur les «clients en or ». Il s’agit en premier de savoir comment établir la valeur individuelle des clients. Ici il ne faut pas se contenter de définir une valeur en fonction du chiffre d’affaires, du nombre de produits ou de transactions effectuées, de l’ancienneté. Il convient de déterminer la contribution au résultat et de gérer un compte d’exploitation par client. Cette approche est très largement pratiquée dans le monde du B to B mais elle est novatrice dans le monde du B to C, car pendant longtemps l’importance des données et traitements nécessaires a rebuté les entreprises vendant au grand public.

Pour calculer la valeur de chaque client, il s’agit donc de prendre en compte à un niveau individuel les revenus, les dépenses de commercialisation, les coûts de production des produits et services, les frais généraux et les charges financières. La Royal Bank of Canada par exemple a appliqué cette méthode et a complètement changé son point vue sur ses clients et concrètement leur répartition en décile de rentabilité puisqu’elle a modifié le positionnement de 75% de ses clients d’au moins deux déciles (en plus ou en moins). Les approches 1 to 1 qui peuvent être faites après un tel changement de l’appréciation des clients, sont profondément différentes. Mais attention il ne faut pas se limiter au calcul de la valeur du client à partir des transactions historiques, il convient de projeter cette valeur dans le futur en tenant compte du profil et du cycle de vie spécifique des clients et de définir une valeur potentielle.

La capacité d’appréhender la rentabilité de chaque client procure des avantages à toute l’entreprise. Les avantages les plus immédiats s’observent au niveau du marketing et plus précisément de la gestion des clients. Chaque initiative de communication peut être améliorée si l’on sait mieux déterminer les produits essentiels et attrayants aux yeux de tels et tels clients, ainsi que les clients susceptibles d’acheter un produit à un prix rentable pour le fournisseur. Les actions de fidélisation et d’incitation peuvent être construites en fonction des données détaillées relatives à la rentabilité des clients. Le fait d’employer ces informations pour se concentrer sur les clients rentables par le biais d’une approche adaptée à leur comportement peut se traduire par des économies non négligeables sur le plan des budgets alloués à la fidélisation, la conquête et le développement de clients.

Au niveau de l’organisation puisque les entreprises orientent de plus en plus leur structure sur le client, les calculs de la valeur des clients peuvent offrir une base idéale lorsqu’il s’agit de définir la contribution de chaque unité fonctionnelle et être au cœur d’une évaluation des coûts ajoutés et des valeurs ajoutées sources de nombreuses réflexions stratégiques sur la création de valeur de l’entreprise. De façon plus normative, par exemple en ce qui concerne les ventes et le service, la mise en place d’un système de calcul de la valeur des clients peut fournir un support objectif et permanent dans le cadre de la définition de niveaux de service à la clientèle et de l’attribution de primes au personnel.

Le calcul de la valeur des clients fait partie des fonctions que doivent couvrir les solutions de CRM analytique qui par ailleurs doivent permettre d’appréhender toutes les dimensions de la relation client (accès à un historique 360°), de comprendre le comportement d’achat, de fixer les attentes de chaque client, de détecter des opportunités de vente, d’optimiser la segmentation & le ciblage, de modéliser & simuler les stratégies marketing.
Rédigé par Michel Bruley le Lundi 9 Novembre 2015 à 12:13 | Permalien | Commentaires {0}

Force est de constater la forte proportion des projets de CRM qui échouent. Ainsi les études publiées ces derniers temps montrent que la majorité des entreprises ayant mené un projet CRM n'ont connu aucune amélioration sensible suite à la mise en place de nouveaux moyens, et pour une proportion non négligeable elles ont même dégradé leurs relations clients. Au-delà des discours d'apologie et de dénonciation du CRM, il convient de prendre conscience que les entreprises font face à une grande variété de problématiques, imputable à des situations très différentes, et que n’il n'existe pas de solution informatique universelle et obligée.

Les entreprises ont à prendre en compte des situations de nature très variable, comme des évolutions de la clientèle ou à un changement dans les modes de distribution, l’augmentation de la défection des clients, la saturation de certains marché qui gêne le développement des ventes, l’augmentation des dépenses de communication, ou la nécessité de coordonner des actions à travers de multiples canaux. Pour simplifier les solutions CRM à mettre en place doivent répondre à au moins trois préoccupations principales des entreprises : le développement de la "part de client", qui passe par la fidélisation et la personnalisation, l’intégration multicanale et enfin l’optimisation des dépenses en fonction des enjeux.

Confrontées à des difficultés de nature différente, les entreprises ne doivent pas suivre une méthode unique de mise en œuvre de leur solution CRM. Cependant quelques points communs peuvent être décelés. Ainsi les investissements en CRM répondent généralement plus à un "acte de foi" qu’à une approche objective clairement argumentée. De même afin de conjurer la peur du « projet d’usine à gaz », la plupart du temps les entreprises se concentrent sans plan d’ensemble sur des actions prioritaires et mettent en place des moyens parcellaires. Ainsi conduit les projets de CRM correspondent à une prise de risque indéniable et si sur la ligne départ tout est déclaré techniquement possible, sur la ligne d’arrivée peut de moyens sont concrètement opérationnels et utilisés.

Le problème le plus fréquent vient du fait que la plus grande attention n’est pas apportée aux hommes (utilisateurs et informaticiens), alors qu’il est indispensable de concilier les bonnes volontés, surmonter les résistances – parfois légitimes – des collaborateurs. La formation des personnes est un élément essentiel et il faut d’autre part éviter toute dérive techniciste, c’est-à-dire une focalisation sur les outils au détriment des hommes et de l'organisation. Les projets CRM doivent être soutenus par la technologie (technology enabled) et non pas guidés par la technologie (technology driven).

Pour réussir son projet, il convient d’abord de bien traiter quelques questions métier fondamentales comme celle de la nature des relations à entretenir ou à créer avec ses clients. Désire-t-on une optimisation, c’est-à-dire une réduction des coûts et/ou un développement de la valeur ? La question de l'utilisation de différents canaux aux différentes étapes de la relation client doit aussi être traitée, il faut de plus que la solution supporte le processus de vente. Enfin il est indispensable d’introduire de l’intelligence dans les systèmes, c'est-à-dire concrètement qu’il faut constituer, partager et réellement exploiter la connaissance client.

Les informations clients doivent servir à les comprendre (valeur, affinité …), être le fondement des stratégies (ciblage, personnalisation …) et la source des mesures concrètes des résultats des actions. Rien de tel qu’un entrepôt de données client pour disposer des données historiques détaillées nécessaires au CRM analytique. Les informations générées grâce au CRM analytique sont indispensables pour mettre en œuvre des stratégies et des communications efficaces, avec des campagnes mieux ciblées, des frais de campagne réduits, des taux de réponse élevés. Tout ceci doit conduire à une meilleure rentabilité de la relation client et une perspective de valeur ajoutée importante qui peut également se mesurer à l’aide du CRM analytique.

Rédigé par Michel Bruley le Jeudi 1 Octobre 2015 à 16:44 | Permalien | Commentaires {0}
1 ... « 7 8 9 10 11 12 13 » ... 21


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile


Rubriques

Rubriques