Chercher un avantage concurrentiel en tissant des relations avec des clients, pour mieux comprendre leurs besoins et leurs désirs, n’est pas nouveau. Exploiter des informations clients pour mieux se positionner est un réflexe commercial de base, que les entreprises ont d’autant plus facilement que pour la majorité la moitié de leurs bénéfices provient de 10% de leurs clients. Cependant, la plupart des entreprises vendant directement aux consommateurs échouent dans la gestion de l’un de leurs actifs majeurs : l’information client. La raison principale vient du fait que les entreprises n’ont pas une approche globale de la gestion de leur relation client.
Dans le contexte actuel de multiplicité des canaux de distribution et des offres analogues, le coût d’acquisition d’un nouveau client s’envole, les marges baissent et pour les produits en phase de maturité l’amortissement des coûts de recrutement peut nécessiter plus de deux ans de consommation et suppose donc une certaine fidélité. Tout cela conduit à la prolifération des programmes de fidélisation. Les entreprises développent donc des stratégies de focalisation client, qui les amènent à identifier leurs clients les plus intéressants ; créer des portefeuilles de clients homogènes (problématique, potentiel ...) ; se débarrasser des clients non profitables ; choyer les "clients avocats de leurs produits" ; se servir de leurs clients pour obtenir d'autres clients ; identifier les prospects les plus intéressants ; écouter, provoquer les suggestions de leurs clients ; et développer des programmes de fidélisation.
La plus grande difficulté dans ce type d’approche réside dans le fait que les hommes et informations nécessaires sont dispersés dans l’entreprise et relèvent de fonctions différentes comme le marketing, la finance, les ventes, les services après vente, etc. … Inversement les technologies de l’information ont tellement évolué, qu’aujourd’hui le stockage, l’analyse et l’accès distant à de grands volumes de données sont aisés. L’automatisation des Ventes & du Marketing apporte trois bénéfices majeurs : la réalisation d’approches commerciales des clients très personnalisées ; l’intégration des réactions des clients (produits, concurrents …) dans la définition de l’offre ; la création d’une infrastructure qui à moindre coût facilite la flexibilité et permet de constamment entretenir un portefeuille d’avantages concurrentiels (offre, personnalisation, coûts).
Pour obtenir ces bénéfices, les entreprises mettent en place des applications pour : cibler (segmentation) ; promouvoir (gestion de campagne marketing) ; fidéliser (fidélisation, rétention, attrition), prospecter (acquisition, vente croisée, additionnelle) ; suivre les résultats (ventes par produit, canal …) ; analyser la rentabilité (marge brute, nette …) ; définir l’offre (affinité, conception, chaîne d’approvisionnement).
Aujourd’hui, les entreprises utilisent le téléphone, internet, la poste, des vendeurs pour interagir avec leurs clients et plus particulièrement ceux à forts potentiels, mais il est essentiel pour réussir ces approches marketing de trouver la bonne combinaison de technologies et de ressources humaines qui permettent de mettre en œuvre une gestion optimum de la relation client : obtenir un signe d’intérêt, un premier achat ; augmenter la fréquence, la variété, le montant des achats ; réduire l’attrition et réactiver les inactifs.
Au moment de vous lancer dans ce type d’approche, pensez à la phrase de Sénèque : “ Il n’y a pas de vent favorable pour celui qui ne sait où aller ”. Gérer la relation client est un métier, des objectifs relationnels ne peuvent être atteints que dans la mesure où un cap est fixé et que quelques directives sont précisées de telle sorte que l’allocation des ressources et les choix d’actions opérationnelles puissent être réalisés pour permettre d’atteindre un objectif retenu. Un résultat significatif ne peut pas être attendu d’un ensemble d’activités déclenchées au hasard. Au de là du produit ou du service, la clé principale est dans la communication et dans la possibilité que le client a de différencier une offre. C’est pourquoi, positionnement et éléments de différenciation doivent être constamment maintenus attractifs et l’image de marque gérée. Les consommateurs se font une image des produits/services et des entreprises, à travers les emballages, les canaux d’interaction, le degré de courtoisie des réponses au téléphone par exemple, tout ce qu’ils voient ou entendent ; cette image les incitera ou non à acheter.
Rédigé par Michel Bruley le Mardi 1 Septembre 2015 à 10:11
|
Permalien
|
{0}
La complexité et le rythme des affaires dans le monde d’aujourd’hui exigent que nous ayons un accès simple, rapide et profond à notre capital informationnel. Régulièrement, nous devons faire face à des questions inattendues et les réponses ne peuvent être construites qu’en combinant des données en provenance de plusieurs sources internes ou externes à l’entreprise pour comprendre la situation et déclencher des actions appropriées. Face à l’avenir, nous pouvons adopter plusieurs attitudes : être passif, réactif, préactif (se préparer aux changements attendus) ou proactif (provoquer les changements souhaités).
Dans ce contexte, l’augmentation de l’efficacité ne viendra pas de systèmes décisionnels plus rapides, la technologie est nécessaire, mais pas suffisante. Le vrai saut dans l’efficacité ne peut venir que de cerveaux plus créatifs exploitant au mieux un capital informationnel consistant. La technologie n’est pas la principale source d’innovation, c’est seulement la plus connue, c’est surtout un fabuleux moyen de rationaliser les activités. Pour assurer un développement durable du chiffre d’affaires et de la productivité, il faut permettre aux collaborateurs des entreprises et en premier lieu à leurs analystes et stratèges, d’utiliser au mieux leur savoir en donnant de bonnes données à travailler à leurs neurones.
C’est par une bonne maîtrise de l’information qu’une entreprise peut être plus près de ses clients, fournisseurs, partenaires, collaborateurs et actionnaires. La clé de l’excellence n’existe pas, elle doit être remodelée en permanence au gré de l’évolution de l’environnement. Dans ce jeu les systèmes décisionnels sont essentiels pour éclairer le passé, le présent, pour simuler le futur et le piège est de se trouver face à des zones d’ombre. De nombreuses entreprises ont des systèmes hyper performants pour explorer à la vitesse de l’éclair un petit jeu de données agrégées et sont atteintes d’Alzeihmer dès qu’elles veulent retrouver certains détails. Le hasard ne favorise que les esprits bien préparés et le marché récompense l’agilité, alors les meilleures entreprises ont compris qu’il faut qu’elles gèrent leur passé et leur futur, car à la lumière du passé le présent s’éclaire et tout le monde sait que l’avenir vient de loin.
Pour parfaitement exploiter ses informations, une entreprise doit d’abord commencer par bien les entreposer de façon à correctement les capitaliser, pour que les différents utilisateurs puissent en tirer toute la valeur. Outre le fait que les utilisateurs doivent être compétents, d’un point vue métier et analyse de données, il convient qu’ils puissent orienter leur travail grâce à une claire vision de la stratégie de leur entreprise, avec le soutien de leur direction respective et en bénéficiant d’une culture d’entreprise ouverte aux approches factuelles et créatives. Il ne faut pas s’illusionner pour la plupart des entreprises il y a un long chemin à parcourir avant qu’elles puissent tirer de réels avantages de leur capital informationnel.
Continuellement générer les mêmes rapports ne permettra jamais de faire des analyses génératrices d’innovations. Il faut développer des approches, des réflexions nouvelles pour sortir des cadres convenus et se donner des chances de trouver des alternatives créatives. Il convient de poser des questions nouvelles, inusuelles, pénétrantes dont les réponses ne sont pas connues d’avance et peuvent être inattendues. Dans cette optique peu importe que les utilisateurs soient particulièrement pertinents s’ils butent sur des données inadéquates, c'est-à-dire fragmentées, dispersées ou agrégées avec de grandes difficultés, voire l’impossibilité de se constituer une base d’analyse valable. L’expérience montre que 80 pour cent du retour sur investissement des projets d’entrepôt de données provient de requêtes qui portent sur des données détaillées, dans une approche itérative où de questions en réponses qui suggèrent de nouvelles questions des opportunités sont mises à jour.
Les entreprises leaders obtiennent leur position sur le marché parce qu’elles se sont construites autour de systèmes d’informations opérationnels et décisionnels plus que solides qui leur facilitent l’élaboration de leur stratégie, une vision claire de leurs activités et qui permet à leurs collaborateurs formés et motivés d’aller au bout de leurs réflexions.
Le Data Mining est une puissante technique d'analyse qui par exemple permet à des responsables d'entreprises d’aller plus loin que la simple description des comportements passés d'une clientèle et de prédire l'avenir. Il permet de déceler dans les comportements « mystérieux » des clients des règles qui les sous-tendent. Grâce à ces découvertes, il est possible d'augmenter les revenus, de réduire les dépenses, d'identifier des opportunités commerciales et donc de bénéficier d'avantages concurrentiels certains.
Mais à en croire certains fournisseurs de solutions et de prestations de data mining, il serait indispensable de disposer d'outils dédiés (base de données, data mart ou serveur analytique) pour faire du data mining. Ils invoquent pour cela la nécessité d'extraire les données sous un format propriétaire pour réaliser des traitements efficaces. Or, non seulement ces moyens spécialisés sont onéreux à mettre en place et à maintenir, mais ils exigent que les données soient extraites pour chaque projet distinct de data mining, ce qui représente une procédure coûteuse et fortement consommatrice de temps. Heureusement, les progrès réalisés dans le domaine des bases de données n'exigent plus d'effectuer le data mining dans des data marts distincts. En réalité, pour une opération de data mining efficace, il suffit de s’appuyer sur son entrepôt de données, ce qui, au regard du coût d'investissement total, se révèle considérablement moins cher que d'utiliser des moyens spécifiques.
Au fur et à mesure que les sociétés mettent en place des EDW (Enterprise Data Warehouse, entrepôt de données d'entreprise) et couvrent l'ensemble des besoins décisionnels des différentes divisions et fonctions de l’entreprise, le nombre d'utilisateurs exploitant des modèles de data mining ne cesse de croître. En effet un EDW bien architecturé ne se contente pas de stocker efficacement l'ensemble des données historiques, il rend inutiles d'autres data marts ou d'autres moyens spécialisés de stockage. Un EDW constitue la fondation idéale pour des projets de data mining, en fournissant un répertoire de données unique à l'échelle de l'entreprise, capable d'offrir une vision cohérente et actualisée des activités. En outre, l'intégration de fonctionnalités de data mining au sein de l’EDW permet à l'entreprise de réaliser deux types d'économies supplémentaires. Tout d'abord, il n'est plus nécessaire d'acheter et d'assurer la maintenance de matériel complémentaire uniquement dédié au data mining ; ensuite les entreprises ne sont plus obligées d’effectuer un va-et-vient de données depuis et vers l'entrepôt pour réaliser les projets de data mining, ce qui, nous l'avons vu plus haut, est une opération gourmande en temps et en ressources.
À titre d’exemple, l'un des plus grands opérateurs de téléphonie mobile aux USA utilise aujourd’hui un EDW pour fournir des informations à une large gamme d'applications commerciales et marketing. Cet opérateur, desservant de nombreux marchés régionaux, avait été conduit à établir différents data marts régionaux, et obtenir une vue d’ensemble des informations à l'échelle de l'entreprise était devenu particulièrement difficile. Les prises de décision souffraient de l’absence de données ou d’informations cohérentes, ce qui affectait les performances et le moral des équipes qui ne pouvaient pas anticiper et mesurer le fruit de leur travail. En transférant toutes ses données vers un EDW, cet opérateur a pu constater des résultats immédiats. Les données étaient mises en cohérence, les décisions pouvaient être prises en toute sécurité, avec l'assurance que les données reposaient sur des fondations saines. En termes d’efficacité, le nouvel EDW délivre des informations d’une meilleure qualité 90% plus vite qu'avec l'ancienne approche par data marts. Lorsqu’il est nécessaire d’analyser de grandes quantités de données, de tels gains permettent de faire la différence sur le marché.
Sans entrer dans la problématique du choix des fournisseurs, les lignes ci-dessous recensent sous forme de recommandations, les principales idées qui sont largement répandues et qu’il ne faut surtout pas suivre.
Pour réaliser votre entrepôt de données, ne consultez aucune personne extérieure à votre organisme. Votre cas est unique et seules des personnes de chez vous peuvent trouver la solution qui convient. Ne cherchez pas à savoir ce que font vos concurrents, ne regardez pas les références de fournisseurs de solutions décisionnelles.
Fixez-vous comme premier objectif de spécifier de façon exhaustive tous les besoins décisionnels de votre organisme, en particulier soignez particulièrement bien la définition détaillée des restitutions attendues.
Cherchez à satisfaire les utilisateurs en leur réalisant des systèmes personnels sur mesure. Concrètement il s’agit de multiplier les data marts dans une logique de construire pour chaque division, département voire service, des moyens totalement adaptés au périmètre de leur problématique, en particulier à leur vocabulaire, à leur façon de voir les données sans se soucier d’autre chose que de leur vision spécifique des affaires. À chacun sa vérité.
Planifiez de multiples projets décisionnels en parallèle, sans vous soucier de fixer des priorités ni de produire rapidement des résultats.
Évitez le plus possible de stocker des données détaillées et fondez les systèmes sur des données agrégées, des compteurs du type RFM, et faites une large place aux données d’enquêtes, d’études ponctuelles et d’informations qualitatives que les utilisateurs maîtrisent bien, voire produisent eux-mêmes.
Au niveau de la modélisation, bannissez la 3ème forme normale, fondez le plus possible les datamarts sur des modèles en étoile ou en flocon, de façon à optimiser au maximum les performances des requêtes qui sont envisagées au moment de la conception du système.
Pour les restitutions, simplifiez le plus possible la vie des utilisateurs en fournissant des résultats facilement compréhensibles comme des moyennes, des médianes ou des métriques synthétiques, qui permettent de suivre simplement des sujets complexes.
Pour faciliter l’appréciation des performances fondez exclusivement les suivis sur des comparaisons entre données de prévision et de réalisation, en veillant à ne pas trop multiplier les chiffres et à rester très synthétique, en particulier il convient de limiter la profondeur de l’historique des données.
Au niveau des moyens technologiques, privilégiez des solutions prêtes à l’emploi spécifiques, quitte à multiplier les fournisseurs et les moyens.
Défendez bec et ongles l’idée que la vérité est dans les statistiques.
Investissez un minimum dans votre entrepôt de données, gardez le plus possible votre argent au fond d’un coffre, il y sera en sécurité.
Ci-dessous une deuxième série d’articles publiée dans la communauté CherClient.com
Comprendre & servir le client digital
Pour une gestion intégrée de toutes les activités de commercialisation, médias sociaux compris
Les médias sociaux forment un nouveau canal de communication
Big Data : Au-delà de l'analyse, ce qui compte c'est l'action
Marketing digital quels avantages attendre des big data ?
Suivre ou non les Médias Sociaux s'équiper ou non en Big Data
Big Data : Tirez parti de l’analyse des réseaux sociaux pour optimiser les relations clients
Big Data mieux prendre en compte ce que disent les clients
Big Data & définition des assortiments et des promotions
CRM & Big Data non structurées
L’usage est la mesure du succès d’une innovation
Comprendre & servir le client digital
Pour une gestion intégrée de toutes les activités de commercialisation, médias sociaux compris
Les médias sociaux forment un nouveau canal de communication
Big Data : Au-delà de l'analyse, ce qui compte c'est l'action
Marketing digital quels avantages attendre des big data ?
Suivre ou non les Médias Sociaux s'équiper ou non en Big Data
Big Data : Tirez parti de l’analyse des réseaux sociaux pour optimiser les relations clients
Big Data mieux prendre en compte ce que disent les clients
Big Data & définition des assortiments et des promotions
CRM & Big Data non structurées
L’usage est la mesure du succès d’une innovation
Ci-dessous la première série des articles consacrés au marketing, à la relation client, que j’ai publiés dans d'autres communautés
Stratégie de commercialisation : le client est la source et la cible
Vendre ou faire acheter
Vendre aux clients multi-équipés
Intégrer ses systèmes opérationnels et décisionnels pour mieux gérer ses clients
Organiser la relation client
Optimiser l'expérience client
Solution CRM pour établir une relation durable avec vos clients
De l'importance de la connaissance client
Calculez la valeur de vos clients
De la coordination des canaux
Mobile Marketing
Un entrepôt de données au cœur relation client
Si les données ont du sens, elles deviennent des informations. Si ces informations sont réutilisables, elles deviennent des connaissances. Quand ces connaissances sont réutilisables dans un but donné, elles deviennent des compétences.
Différentes étapes :
• La production de connaissance : analyse, formalisation, capitalisation,
• La diffusion : consultation, recherche (annuaire des savoirs, cartographie des compétences …),
• L’utilisation : échanges, formation, mise en œuvre.
Impacts sur les affaires :
• Toutes les activités de l’entreprise sont concernées en termes de productivité, de vitesse, de qualité : les relations clients, partenaires, collaborateurs et la gestion (veille, innovation, stratégie, procédures opérationnelles),
• Dans les secteurs très concurrentiels, le critère vitesse est très important,
• 65% des entreprises avouent avoir des difficultés à mesurer et valoriser les gains de rentabilité générés par la gestion des connaissances
Impacts humains :
• Au vu dans certains secteurs, du turn-over ou des vagues de départ en retraite, la gestion des connaissances devient une problématique,
• Autrefois diffuseurs d’informations, les managers se muent en animateurs de réseaux de connaissances,
• Carrières d’experts : le titre d’expert n’a pas encore la reconnaissance sociale souhaitable,
• Comment distinguer le patrimoine de l’entreprise du capital intellectuel de chaque individu.
Impacts procédures :
• Passer de l’intelligence individuelle à l’intelligence collective,
• Intégrer de manière dynamique les connaissances dans l’activité,
• La gestion des connaissances est bien passée dans l’industrie alors que les sociétés de services commencent tout juste à se l’approprier.
Économie de la connaissance :
• L’économie de la connaissance repose en particulier sur les liens entre la recherche, l’enseignement supérieur et les entreprises industrielles ou commerciales,
• Les Etats Unis dépensent 190 milliards de dollars pour la recherche publique ou privée contre 130 pour l’ensemble de l’Europe.
Premiers pas dans le Big Data
Ci-dessous un livre blanc à télécharger qui est constitué d’une compilation de mes articles qui permettent d’explorer certains aspects des évolutions que les Big Data engendrent, en matière d’avantages concurrentiels, au niveau du marketing en particulier, pour ce qui concerne les infrastructures et les équipes informatiques, sans oublier les professionnels des différentes fonctions : Cliquez ici
Big Data & Open source : une convergence inévitable ?
L’enjeu majeur du Big Data n’est pas dans la collecte et le stockage, mais dans la valorisation de ces données. L’Open source peut-il répondre à cet enjeu ? – cliquez ici
Big Data technologies
Big Data is on everyone's lips, but what are the available technical solutions to deal with it? We give a brief overview of several solutions: distributed filesystems, NoSQL databases, and end-to-end solutions that take into account computations - cliquez ici
Big Data appliances
L’apport des Big Data vu par une société de conseil en SI – cliquez ici
Don’t be hadooped when looking for big data
Extracting value from Big Data is not easy. The field of technologies and vendors is fragmented and rapidly evolving. End-to-end, general purpose solutions that work out of the box don’t exist yet, and Hadoop is no exception. And most companies lack Big Data specialists. The key to unlocking real value /// extracting the gold nuggets at the end of the rainbow (???) /// lies with mapping the business requirements smartly against the emerging and imperfect ecosystem of technology and vendor choices.
– cliquez ici
Various presentations on Big Data
14 presentations on Big Data (Machine learning, Text mining, Sentiment analysis, Web log & Clickstream, Marketing attribution, Product affinity, Next best offer, Pricing …). – cliquez ici
Big data, les entreprises françaises toujours à la traine ?
Le big data entre dans une nouvelle phase, celle de l'industrialisation, surtout dans certains secteurs comme le retail, les telcos ou encore la banque/assurance. – Cliquez ici
Open Data : fiche synthétique
La réutilisation des informations publiques, souvent nommée par commodité open data, est devenue une des thématiques très porteuses dans le secteur public et dans le secteur privé où les initiatives se multiplient pour imaginer des produits et services innovants développés à partir de la réutilisation desdites informations publiques. – cliquez ici
Il est aujourd’hui possible de réaliser son système d’information décisionnel uniquement avec des solutions open source. Ci-dessous par catégorie une sélection de solutions réputées.
ETL pour Extract-Transform-Load.
Pentaho Data Integration : la solution permet de préparer et croiser des données afin de créer une vision complète de l’entreprise. La plate-forme complète d'intégration des données fournit aux utilisateurs finaux des données précises «prête pour l'analytique » à partir de n'importe quelle source. Grâce aux outils visuels qui éliminent la programmation et la complexité, Pentaho met les Big Data et toutes les sources de données à la portée aussi bien des utilisateurs métier que de l’informatique. Cliquez ici
Talend Open Studio : propose la seule plateforme unifiée simplifiant la gestion de données et l’intégration d’applications en fournissant un environnement unifié pour gérer le cycle de vie complet à travers les frontières de l’entreprise. La productivité des développeurs est considérablement améliorée grâce à un environnement graphique simple à utiliser, basé Eclipse, combinant l’intégration de données, la qualité de données, le MDM, l’intégration d’applications et le Big Data. Cliquez ici
Base de données SQL
PostgreSQL est le SGBDR open source le plus complet aujourd’hui. PostgreSQL est issue de Ingres. Le projet a été lancé en 1985, la première version bâtie sur l'architecture actuelle est sortie en 1995.
MySQL est un SGBDR rapide et robuste, particulièrement déployé dans les environnements Internet. MySQL a été créé en 1995.
Pour aller plus loin : cliquez ici
Base de données No SQL
Cassandra est une autre base de données de la mouvance NoSQL. Initialement développée par Facebook en 2008, elle a été par la suite libérée et son développement est aujourd'hui assuré par la fondation Apache.
MongoDB est une base de données orientée documents de la mouvance NoSQL permettant le stockage de documents au format BSON (une forme binaire de JSON).
Pour aller plus loin : cliquez ici
Designer de rapport
BIRT (The Business Intelligence and Reporting Tool) est un projet de la communauté Eclipse comprenant un générateur de graphiques, un générateur de rapports et un environnement de conception. Le projet a été initié en 2005. Cliquez ici
JasperReport (iReport) iReport est l'outil le plus populaire auprès des concepteurs de visuel. Il prend en charge tous les formats de sortie les plus importants et importe quelle source de données. Cliquez ici
Pentaho Report Designer est un outil simple à manipuler, bien intégré à la suite décisionnelle Pentaho pour la gestion des paramètres ou la publication sur la plateforme web. Il permet la génération de rapports aux formats PDF, HTML, XML, CSV, RTF, XLS et supporte les sources de données multiples. Cliquez ici
Analyse
Mondrian est un outil OLAP (traitement analytique en ligne) avec un moteur écrit en Java. Il lit à partir de sources de données JDBC, agrège les données dans une mémoire cache, et met en œuvre le langage MDX et l'olap4j et XML / A API. Cliquez ici
La suite Palo BI, totalement Open Source, donne un rôle central aux experts métiers voués à utiliser l'outil en leur proposant des outils simples, faciles à prendre en main, à gérer et à utiliser, elle plait aux utilisateurs avancés de tableurs en leur offrant la possibilité de gérer l'application depuis Excel (suite Microsoft Office) ou depuis Calc (suite Open Office). Cliquez ici
Saiku propose différents outils pour créer et analyser des modèles de données à partir d’un navigateur ; poser toutes les questions sur les données, déverrouiller les données dans les applications ou sites web. Cliquez ici
Data mining
Weka (Waikato Environment for Knowledge Analysis, en français : « Environnement Waikato pour l'analyse de connaissances ») est une suite populaire de logiciels d'apprentissage automatique. Écrite en Java, développée à l'université de Waikato, Nouvelle-Zélande. En 2006, Pentaho acquiert une licence exclusive pour utiliser Weka. Il forme le composant d'exploration de données analytique et prédictif de la suite de logiciels décisionnels Pentaho. Cliquez ici
MDM
Talend MDM : les solutions de MDM de Talend permettent aux données disparates, incohérentes des entreprises, telles que les données de produits et de clients, d’être vues sous une seule "version de la vérité", et accroissent ainsi la confiance dans les décisions. Cliquez ici
Quelques remarques, avant de se lancer - Cliquez ici
Le domaine des solutions Big Data est en très grand développement, de nombreuses solutions ont vu ou sont en train de voir le jour. Malheureusement beaucoup restent confidentielles. Sans avoir l’ambition de faire le tour, vous trouverez ci-dessous plusieurs solutions spécifiques à une fonction ou une industrie.
Marketing BtoB
Pour les équipes marketing, CRM, et commerciales, Datapublica propose un outil de marketing B2B offrant des fonctionnalités de : ventes prédictives (trouver les entreprises similaires à ses clients et identifier des leads rapidement) ; moteur de recherche entreprise (accéder à des fiches entreprises détaillées et à jour) ; segmentation en temps réel (explorer les caractéristiques de son écosystème – clients, fournisseurs, …) ; veille (suivre les offres d’emploi, levées de fond ou événements des entreprises mises sous contrôle). Cliquez ici
Transport aérien
Safety Line propose des solutions (logicielles et analyse statistique) pour la gestion des risques dans le domaine du transport aérien : gestion des risques opérationnels et techniques ; optimisation de la consommation et réduction des émissions de CO2 liées au transport aérien. Cliquez ici
Hôtellerie
Pricematch propose aux hôteliers une solution en mode cloud qui grâce à des algorithmes utilisant le Machine Learning (ou "apprentissage automatique") et conçus avec des experts du monde hôtelier, prennent en compte l’historique de réservation, les prix des concurrents, la saisonnalité, l’e-réputation de l’hôtel, les événements locaux, les prévisions météo, et bien plus encore... pour calculer une tarification optimale des chambres pour les mois à venir. En moyenne, les utilisateurs de cette solution ont mesuré une augmentation de 7% de leur RevPAR (revenue per available room). Cliquez ici
Pétrole & Gaz
Idmog propose une solution de gestion de données et des applications pour l’exploitation de champs de pétrole et de gaz, particulièrement robustes, délivrant de hautes performances avec une fiabilité inégalée, une grande simplicité et flexibilité, et d’autres avantages comme : une traçabilité des données, une disponibilité maximale du champ au bureau, une réduction du temps non productif des ingénieurs, … cliquez ici
Marché boursier
Kensho est un pionnier des systèmes informatiques statistiques en temps réel et des analyses évolutives. kensho réalise des calculs statistique massivement parallèle de données non structurées pour les professionnels de l'investissement de Wall Street par exemple. kensho est capable de répondre à des questions financières complexes posés dans un anglais simple et en temps réel. Cliquez ici
Assurance
Le Big Data ouvre de ¬nouveaux horizons pour lutter contre la fraude. Shift Technol propose une solution qui permet d’aller bien au-delà de la simple analyse de corrélations statistiques et est capable de détecter les vrais comportements frauduleux sous-jacents, en particulier les mécanismes de fraude en bande organisée. Par exemple Shift Technology estime pouvoir, sur un portefeuille de 300.000 sinistres automobiles par an, faire économiser aux assureurs au moins 9 euros par sinistre de plus que ce qu’ils détectent aujourd’hui. Cliquez ici
Cas d’entreprise : transport
Chronopost veut optimiser ses coûts de livraison grâce au Big Data. cliquez ici
Cas d’entreprise : banque
La Société Générale mobilise le Big Data pour la personnalisation et le time-to-market. cliquez ici
> A LIRE EN CE MOMENT SUR DECIDEO
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
-
La révolution des élites : quand l'IA redistribue le pouvoir
-
Informatica apporte sa contribution aux mégatendances de Microsoft Azure (IA générative, Microsoft Fabric et format en tables de données ouvertes) avec de nouvelles fonctionnalités
-
Dell Technologies présente les dernières innovations de Dell AI Factory pour propulser l’IA en entreprise
-
Eviden va tripler la capacité de calcul de la Finlande avec un nouveau supercalculateur d’IA
-
e-Attestations devient Aprovall
-
Neo4j dépasse les 200 millions de dollars de chiffre d’affaires et accélère son leadership dans le domaine de la GenAI grâce à sa technologie de graphes
-
Precisely nommé leader dans le rapport 2024 d’IDC MarketScape : Worldwide Data Intelligence Platform Software
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques