Le domaine des solutions Big Data est en très grand développement, de nombreuses solutions ont vu ou sont en train de voir le jour. Malheureusement beaucoup restent confidentielles. Sans avoir l’ambition de faire le tour, vous trouverez ci-dessous plusieurs solutions génériques qui peuvent intéresser la plupart des entreprises se lançant ou envisageant un projet Big Data.
Plateforme Big Data
Dataiku Science Data Studio (DSS) est une plate-forme logicielle qui permet de couvrir toutes les étapes nécessaires pour aller des données brutes à des applications prête de production. Il permet de raccourcit les cycles de déploiement. Grâce à son espace de travail visuel et interactif, elle est accessible à la fois aux scientifiques des données et aux analystes métiers. cliquez ici
Moteur d’analyse de données au format JSON
Les API et les applications modernes ne se présentent pas toujours sous forme de données tabulaires, mais le plus souvent sous forme de données au format JSON. Precog est un moteur d'analyse qui gère nativement JSON. Il est facile pour les développeurs à intégrer et est livré avec un outil de haut niveau appelé Labcoat qui permet aux scientifiques et analystes de données d’analyser en profondeur leurs données. cliquez ici
Analyse de logs
Sumo Logic propose une solution cloud pour gérer les logs. Elle permet de collecter, centraliser, rechercher et résoudre des problèmes, alerter et informer, visualiser et surveiller, analyser avec l’outil breveté LogReduce, faire des prévisions incluant la détection des anomalies et délivrer des analyses intégrant des éléments de contexte. cliquez ici
Reconnaissance faciale
Smart Me Up propose une solution d’analyse de visage en temps réel, fondée sur du machine learning et de l’intelligence artificielle. Cette solution de reconnaissance faciale permet de « taguer » automatiquement des individus figurant sur une vidéo, ce qui peut avoir de nombreuses applications, notamment en matière de sécurité. cliquez ici
Apprentissage automatique
PredicSis propose une plate-forme d'apprentissage automatique pour permettre à ses clients et leurs développeurs de mener facilement des analyses prédictives automatiques de qualité supérieure sur des gisements Big Data et des flux Fast Data. Il propose en outre trois applications pour mieux prédire les comportements des clients et adapter les stratégies commerciales : gestion de la clientèle, prévision d’abandon, gestion de la fraude. cliquez ici
Moteur de Recommandation
Search’XPR a développé une technologie qui s’intègre directement dans les systèmes de recommandation existants et qui a des retombées déterminantes pour les Applications de Search, les Réseaux Sociaux, les Sites de Rencontre, les Sites E-commerce et M-commerce ainsi que les sites de presse et de contenus en ligne. Elle permet de découvrir de manière inattendue et heureuse une information, un contenu, un produit/service, une personne ou une organisation. cliquez ici
Sécurité
Le stockage de données a évolué du niveau local vers le cloud avec des disques durs ou des serveurs externalisés. De plus, les données sont désormais partagées avec les fournisseurs, les régulateurs et parfois les appareils personnels des employés. Tout cela crée de la vulnérabilité pour les données sensibles. La politique de sécurité informatique doit s'adapter pour être en mesure de faire face. Cela implique non seulement la construction de clôtures autour des actifs afin de les protéger, mais un suivi plus important des menaces extérieures. CybelAngel offre une solution fiable. Plutôt que de défendre un périmètre qui n’existe plus avec le Big Data, vous avez besoin d'intercepter les données échangées ou recueillies par les attaquants. cliquez ici
Plateforme Big Data
Dataiku Science Data Studio (DSS) est une plate-forme logicielle qui permet de couvrir toutes les étapes nécessaires pour aller des données brutes à des applications prête de production. Il permet de raccourcit les cycles de déploiement. Grâce à son espace de travail visuel et interactif, elle est accessible à la fois aux scientifiques des données et aux analystes métiers. cliquez ici
Moteur d’analyse de données au format JSON
Les API et les applications modernes ne se présentent pas toujours sous forme de données tabulaires, mais le plus souvent sous forme de données au format JSON. Precog est un moteur d'analyse qui gère nativement JSON. Il est facile pour les développeurs à intégrer et est livré avec un outil de haut niveau appelé Labcoat qui permet aux scientifiques et analystes de données d’analyser en profondeur leurs données. cliquez ici
Analyse de logs
Sumo Logic propose une solution cloud pour gérer les logs. Elle permet de collecter, centraliser, rechercher et résoudre des problèmes, alerter et informer, visualiser et surveiller, analyser avec l’outil breveté LogReduce, faire des prévisions incluant la détection des anomalies et délivrer des analyses intégrant des éléments de contexte. cliquez ici
Reconnaissance faciale
Smart Me Up propose une solution d’analyse de visage en temps réel, fondée sur du machine learning et de l’intelligence artificielle. Cette solution de reconnaissance faciale permet de « taguer » automatiquement des individus figurant sur une vidéo, ce qui peut avoir de nombreuses applications, notamment en matière de sécurité. cliquez ici
Apprentissage automatique
PredicSis propose une plate-forme d'apprentissage automatique pour permettre à ses clients et leurs développeurs de mener facilement des analyses prédictives automatiques de qualité supérieure sur des gisements Big Data et des flux Fast Data. Il propose en outre trois applications pour mieux prédire les comportements des clients et adapter les stratégies commerciales : gestion de la clientèle, prévision d’abandon, gestion de la fraude. cliquez ici
Moteur de Recommandation
Search’XPR a développé une technologie qui s’intègre directement dans les systèmes de recommandation existants et qui a des retombées déterminantes pour les Applications de Search, les Réseaux Sociaux, les Sites de Rencontre, les Sites E-commerce et M-commerce ainsi que les sites de presse et de contenus en ligne. Elle permet de découvrir de manière inattendue et heureuse une information, un contenu, un produit/service, une personne ou une organisation. cliquez ici
Sécurité
Le stockage de données a évolué du niveau local vers le cloud avec des disques durs ou des serveurs externalisés. De plus, les données sont désormais partagées avec les fournisseurs, les régulateurs et parfois les appareils personnels des employés. Tout cela crée de la vulnérabilité pour les données sensibles. La politique de sécurité informatique doit s'adapter pour être en mesure de faire face. Cela implique non seulement la construction de clôtures autour des actifs afin de les protéger, mais un suivi plus important des menaces extérieures. CybelAngel offre une solution fiable. Plutôt que de défendre un périmètre qui n’existe plus avec le Big Data, vous avez besoin d'intercepter les données échangées ou recueillies par les attaquants. cliquez ici
Rédigé par Michel Bruley le Lundi 1 Décembre 2014 à 09:02
|
Permalien
|
{0}
3 millions d’emplois menacés en France à cause du numérique, à l’horizon 2025 – cliquez ici …
Les cinq métiers porteurs dans le numérique (dont data scientist et ingénieur big data) & les flops – cliquez ici …
Big Data
Big Data & Pricing - cliquez ici …
Seulement 13% des entreprises font du Big Data opérationnel - cliquez ici …
L’École Polytechnique mise sur le Big Data et crée une chaire « Data Scientist » – cliquez ici …
Big Data : la commission européenne engage 2,5 milliards d’euros – cliquez ici …
Big Data chez Telecom Italia : patience et longueur de temps – cliquez ici …
Il est urgent de former les équipes marketing au Big Data, – cliquez ici …
Lancement d'une Chaire dédiée au Big Data – cliquez ici …
IBM signe avec Twitter pour analyser le Big Data généré par les tweets, au profit des entreprises – cliquez ici …
Innovation scientifique & Big Data : comment gérer un tsunami de "milliards et milliards" de données – cliquez ici
Open Data
Données de santé inaccessibles - cliquez ici …
L'accès aux données publiques est un enjeu majeur de démocratie - cliquez ici
L’INPI livre 4,2 millions de documents en Open Data - cliquez ici …
La France ne transposera pas en temps voulu la directive européenne sur l’Open Data - cliquez ici …
L'association Opendata France prône l’obligation d’ouverture des données pour les collectivités – cliquez ici …
Projet de loi sur la santé : « Au fond, c'est un peu " closed data " ! » – cliquez ici …
Veille Open Data France : dernières sélections – cliquez ici …
Les cinq métiers porteurs dans le numérique (dont data scientist et ingénieur big data) & les flops – cliquez ici …
Big Data
Big Data & Pricing - cliquez ici …
Seulement 13% des entreprises font du Big Data opérationnel - cliquez ici …
L’École Polytechnique mise sur le Big Data et crée une chaire « Data Scientist » – cliquez ici …
Big Data : la commission européenne engage 2,5 milliards d’euros – cliquez ici …
Big Data chez Telecom Italia : patience et longueur de temps – cliquez ici …
Il est urgent de former les équipes marketing au Big Data, – cliquez ici …
Lancement d'une Chaire dédiée au Big Data – cliquez ici …
IBM signe avec Twitter pour analyser le Big Data généré par les tweets, au profit des entreprises – cliquez ici …
Innovation scientifique & Big Data : comment gérer un tsunami de "milliards et milliards" de données – cliquez ici
Open Data
Données de santé inaccessibles - cliquez ici …
L'accès aux données publiques est un enjeu majeur de démocratie - cliquez ici
L’INPI livre 4,2 millions de documents en Open Data - cliquez ici …
La France ne transposera pas en temps voulu la directive européenne sur l’Open Data - cliquez ici …
L'association Opendata France prône l’obligation d’ouverture des données pour les collectivités – cliquez ici …
Projet de loi sur la santé : « Au fond, c'est un peu " closed data " ! » – cliquez ici …
Veille Open Data France : dernières sélections – cliquez ici …
Face à un nouveau sujet, les entreprises ont généralement le réflexe de chercher à se faire conseiller sur la manière de l’aborder. Mais que peut-on attendre d’un conseil et qu'est-ce que le conseil ? Un conseil est un spécialiste extérieur à une organisation à qui l'on fait appel, afin d'obtenir un avis au sujet d'une question ou de l'aide pour résoudre un problème précis.
La prestation d’un conseil suit un processus dont il est difficile de caractériser l'essence en une phrase. Le processus de conseil est indépendant du contenu, c'est-à-dire que les conseils suivent les mêmes étapes, quel que soit leur domaine d'expertise. Quoique le processus de conseil soit indépendant du contenu, c'est une activité très dépendante du client. Il s’agit donc pour le conseil de mettre en œuvre ses compétences pour résoudre le problème de son client. Le conseil ne s'accommode pas de solutions standardisées. Le conseil doit être adapté spécifiquement aux besoins particuliers du client. Le conseil doit avoir des compétences c'est-à-dire une combinaison de connaissances, d’expériences et de comportements qui le qualifie pour conseiller sur un sujet.
Le processus du conseil comprend différentes dimensions, toutes liées entre elles. Il s’agit d’influencer sans pouvoir hiérarchique direct ; d’apporter son expertise et la faire appliquer ; d’établir une relation de confiance avec le client ; de s’impliquer tout en restant impartial ; de travailler sous pression et dans le conflit ; de fournir un cadre pour la recherche de solution ; et au final d’avoir un impact sur l’entreprise.
Un conseil s’efforce toujours de répondre aux besoins spécifiques de son client, mais son rôle évolue avec les circonstances. Au cours de la même mission ¬peut-être même dans le même jour il est amené à jouer des rôles bien différents : médecin, facilitateur, ambassadeur, gourou, catalyseur, arbitre, animateur, détective, chef d’orchestre, confident, entremetteur et malheureusement souvent bouc émissaire.
Cette liste n'est bien sûr pas exhaustive. On peut trouver sans doute d'autres rôles à y ajouter. Cette liste est une simple description des rôles les plus courants joués par les conseils. Suivant la mission, le conseil joue tous ces rôles à la fois ou seulement quelques-uns d'entre eux. En améliorant sa connaissance de son métier, le conseil peut se rendre compte qu'il devient plus facile d'évaluer les situations et de passer d'un rôle à l'autre. De plus, il est appelé à jouer des rôles plus variés au fur et à mesure que ses responsabilités, son expérience et ses rapports avec ses clients augmentent.
Il est important de reconnaître que des contextes différents appellent des traitements différents. L’efficacité du conseil dépend souvent de son habilité à évaluer les situations et à choisir les rôles qui sont les mieux adaptés. Pour évaluer et choisir un conseil, il faut considérer les compétences, les connaissances et surtout les références spécifiques relatives au problème à l'étude. Le plus important est d'engager un conseil qui peut apporter une valeur ajoutée à l'entreprise. Soyons clair, aujourd’hui en France pour le thème du Big Data (Méga Données) les personnes à même de conseiller sont assez rares.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter l’article suivant : « Big Data Competency Center Might Ease Talent Shortage » : cliquez ici
Depuis quelques années les Big Data sont au cœur de l’évolution des Systèmes d’Information Décisionnels, mais restent dans les entreprises, en particulier pour les responsables, un sujet mal connu.
Ci-dessous un document à télécharger qui est constitué d’une compilation de mes articles qui permettent d’explorer certains aspects des évolutions que les Big Data engendrent, en matière d’avantages concurrentiels, au niveau du marketing en particulier, pour ce qui concerne les infrastructures et les équipes informatiques, sans oublier les professionnels des différentes fonctions :
Cliquez ici
Le traitement des big data n’amène pas de révolution dans le monde du décisionnel, mais élargit le champ de travail des experts de ce domaine, conduit à modifier les infrastructures en place pour répondre à de nouvelles exigences de volume, de variété et de vitesse, à modifier la façon de préparer les données pour réaliser des analyse de pointe, et comme souvent quand le marché aborde un nouveau sujet, des solutions occupent le devant de la scène, même si elles ne sont pas des panacées universelles. C’est le cas d’Hadoop.
Les big data permettent sans aucun doute de mieux connaître les clients, par exemple grâce au traitement automatique de ce qu’ils disent, de mieux les servir via des solutions de commerce électronique et cloud computing, qui sont à la fois de plus en plus sophistiquées et de plus en plus facile à mettre en œuvre.
Mais au final, le big data n’est qu’un prolongement de ce qui se fait depuis des années, et présentent les mêmes avantages, inconvénients ou risques : information, propagande, désinformation et mystification.
Pour approfondir l’un ou l’autre de ces différents sujets, vous pouvez avantageusement lire certains de mes articles ci-dessous :
Big data : un nouveau champ de travail pour les experts du décisionnel
Infrastructure big data : répondre à des exigences de volume, de variété et de vitesse
De la préparation des big data pour les analyses avancées
Hadoop n'est pas la panacée universelle
Des big data pour mieux servir les clients
Big data et traitement automatique du langage naturel
Big data, commerce électronique et cloud computing
Big data : information, propagande, désinformation & mystification
Pour mémoire vous pouvez aussi consulter mon eBook : Propos sur les SI Décisionnels qui décrit à quoi ils servent, les bonnes façons de les organiser, leur utilité pour la fonction marketing et les autres fonctions de l’entreprise, la façon de les gérer ainsi que des cas remarquables. Cliquez ici.
Les big data permettent sans aucun doute de mieux connaître les clients, par exemple grâce au traitement automatique de ce qu’ils disent, de mieux les servir via des solutions de commerce électronique et cloud computing, qui sont à la fois de plus en plus sophistiquées et de plus en plus facile à mettre en œuvre.
Mais au final, le big data n’est qu’un prolongement de ce qui se fait depuis des années, et présentent les mêmes avantages, inconvénients ou risques : information, propagande, désinformation et mystification.
Pour approfondir l’un ou l’autre de ces différents sujets, vous pouvez avantageusement lire certains de mes articles ci-dessous :
Big data : un nouveau champ de travail pour les experts du décisionnel
Infrastructure big data : répondre à des exigences de volume, de variété et de vitesse
De la préparation des big data pour les analyses avancées
Hadoop n'est pas la panacée universelle
Des big data pour mieux servir les clients
Big data et traitement automatique du langage naturel
Big data, commerce électronique et cloud computing
Big data : information, propagande, désinformation & mystification
Pour mémoire vous pouvez aussi consulter mon eBook : Propos sur les SI Décisionnels qui décrit à quoi ils servent, les bonnes façons de les organiser, leur utilité pour la fonction marketing et les autres fonctions de l’entreprise, la façon de les gérer ainsi que des cas remarquables. Cliquez ici.
Les big data boostent la société parce qu’elles sont une des dimensions du grand chambardement provoqué par la numérisation de la société, numérisation de la photo (penser à Kodak), numérisation des textes, des livres, de la presse, de la musique, du cinéma, des télécommunications (Skype), des mesures, etc.. La numérisation produit des données que l’on peut partager plus facilement (google, open data, clients mieux informés, printemps arabe, …), et analyser (Prism/NSA, retargetting, …).
Pour les pionniers les big data sont au cœur même de leur business model. Pour ces entreprises, les big data n’apportent pas un avantage concurrentiel de plus, c’est vital : Cf. Google, eBay, LinkedIn, Critéo, … Cependant, toutes les industries sont intéressées par les big data et en particulier par analyser des données qu’elles ne prenaient pas en compte antérieurement, ou à faire de nouveaux types d’analyse. Les big data vont non seulement trouver de nouveaux éléments de réponse à des questions que l’on se pose déjà, mais aussi permettre de formuler de nouvelles questions.
Jusqu’à récemment on savait très bien traiter les données numériques dites structurées (les données des SI des entreprises : facturation, paye, etc.), mais avec cependant quelques limites lorsqu’on avait des processus d’analyse itératif ou des séries temporelles longues. Avec les technologies big data (entre autre Hadoop), on peut travailler toutes sortes de données structurées (faire des itérations, séries longues) ou non structurées (photo) ou à la structure complexe (texte). Par exemple, on traque la fraude différemment si les analyses prennent 90’’ au lieu de 90’ (Cas de Full Tilt Poker). On peut mettre en œuvre des algorithmes complexes, sur des plateformes low cost (Barnes Noble a ramené à 20’ un traitement qui précédemment durait 6h).
Enfin ce qui va apporter beaucoup, c’est ce que l’on appelle l’internet des objets, tous les capteurs que l’on met partout, tous les objets connectés qui sont en train d’être lancés, avec notamment la géolocalisation, le marketing mobile, … Nous entrons dans un monde où l’on pourra tout mesurer. Le jogger du weekend sort déjà équiper avec sa montre de course à pieds, avec l’open data nous avons accès à toutes sortes de données (les données routières, du cadastre, …), qui viennent enrichir les analyses et nous permettent de mieux comprendre toutes les dimensions de nos activités.
Pour aller plus loin, vous pouvez utilement consulter ci-dessous, mes articles concernant certaines références big data de Teradata.
eBay est déjà bien équipé pour le big data
Qu'est-ce que big data veut dire chez LinkedIn?
Big data, les pionniers nous montrent la voie
Une solution big data pour traquer la fraude dans une salle de poker en ligne
Quelques aperçus sur l'expérience big data de Barnes & Noble
Quelques usages de big data expérimentés par SuperValu
Razorfish analyse des big data et crée des expériences clients profitables
De l'expérience big data de Gilt groupe
Les aventures de Wells Fargo dans le big data
Sans conteste, c’est la fonction Marketing qui s’est lancée le plus tôt et de la façon la plus importante dans l’usage des Big Data. Elle en avait besoin pour renouveler ses pratiques et faire face à un contexte compliqué, entre autres du fait de la globalisation des activités au niveau mondial et du développement de nouveaux comportements des clients (activités multicanal par exemple), facilité par les nouvelles technologies (internet, mobilité, …). Dans ces conditions la possibilité d’analyser les Big Data est une opportunité de mieux comprendre les conditions du jeu des affaires, et d’agir de façon plus pertinente (positionnement, promotion, …).
Cependant cela va-t-il révolutionner le Marketing ? Faut-il jeter au feu toutes les approches traditionnelles, marketing mix, 1to1 marketing, etc…. ? Pour moi l’utilisation des Big Data n’apporte pas d’idée nouvelle, de concept nouveau, mais permet de mieux mettre en œuvre certaines actions, par exemple en améliorant la connaissance du client (comportement web & multicanal, affinité produit, sentiments, réseaux sociaux, etc. …), on peut envisager faire des propositions plus pertinentes tant sur le fond que dans la forme ou le moment (retargeting, cross/up selling, anticipation de l’attrition de la fraude, des risques, tarification dynamique, etc….).
Pour plus de détails vous pouvez utilement consulter mes articles sur certains usages des Big Data par le Marketing :
Mieux comprendre :
• Exploitation analytique des textes
• Analyse des opinions et des sentiments
• Analyse des réseaux sociaux
• Comprendre le parcours du client sur le net avant qu’il achète
• Analyse des affinités produits
Agir mieux :
• Buzz Marketing
• Elaborer la prochaine meilleure offre à faire à un client
• Répartition des budgets marketing en fonction des comportements clients
Pour mémoire vous pouvez aussi consulter les documents suivants :
• Les NTIC au service de la Globalisation !
• Société d’Hyperconsommation et CRM analytique
• Système décisionnel et fonction marketing
• Introduction au 1 to 1 Marketing
Cependant cela va-t-il révolutionner le Marketing ? Faut-il jeter au feu toutes les approches traditionnelles, marketing mix, 1to1 marketing, etc…. ? Pour moi l’utilisation des Big Data n’apporte pas d’idée nouvelle, de concept nouveau, mais permet de mieux mettre en œuvre certaines actions, par exemple en améliorant la connaissance du client (comportement web & multicanal, affinité produit, sentiments, réseaux sociaux, etc. …), on peut envisager faire des propositions plus pertinentes tant sur le fond que dans la forme ou le moment (retargeting, cross/up selling, anticipation de l’attrition de la fraude, des risques, tarification dynamique, etc….).
Pour plus de détails vous pouvez utilement consulter mes articles sur certains usages des Big Data par le Marketing :
Mieux comprendre :
• Exploitation analytique des textes
• Analyse des opinions et des sentiments
• Analyse des réseaux sociaux
• Comprendre le parcours du client sur le net avant qu’il achète
• Analyse des affinités produits
Agir mieux :
• Buzz Marketing
• Elaborer la prochaine meilleure offre à faire à un client
• Répartition des budgets marketing en fonction des comportements clients
Pour mémoire vous pouvez aussi consulter les documents suivants :
• Les NTIC au service de la Globalisation !
• Société d’Hyperconsommation et CRM analytique
• Système décisionnel et fonction marketing
• Introduction au 1 to 1 Marketing
L’innovation est le moteur de la croissance économique. Les responsables Marketing sont donc toujours à la recherche d’innovations (stratégique, produit ou processus) car même si l’innovation est toujours une activité à risque, ils sont incités à innover pour se créer des occasions de « sur-profit ». Aujourd’hui une des voies simples consiste à bien exploiter les données et les nouveaux moyens de communications (mobile, réseaux sociaux, …), mais attention pour une organisation innover exige toujours d’apprendre au niveau individuel et collectif.
L’innovation stratégique naît de la remise en cause radicale par l’entreprise des composantes de son « business model » qu’il s’agisse de la valeur pour le client ou de sa propre chaîne de valeur. Cette forme d’innovation permet de renforcer la position concurrentielle y compris dans les marchés sans croissance.
L’innovation « produit » est une invention technique qui a trouvé son marché. Invention et innovation sont deux notions distinctes. L’invention est entendue comme « la réalisation d’une nouvelle ressource pour l’entreprise » alors que l’innovation correspond à la mise sur le marché d’un bien intégrant cette nouvelle ressource. Il est à noter qu’il y a beaucoup plus d’inventions que d’innovations car si les inventions ne rencontrent pas les conditions économiques, sociales, institutionnelles favorables, elles tombent dans le vide. Il est bien connu qu’en 1750 de nombreuses découvertes techniques ont eu lieu en Chine mais du fait de l’absence de contexte favorable elles n’ont pas été localement exploitées. Inversement à la même époque l’Angleterre a su importer et exploiter à son profit des inventions d’autres pays (Allemagne, Pays Bas, France, Italie).
Cependant c’est toujours sur le terrain de l’usage que se gagne la bataille de l’innovation. L’usage va permettre à la technologie de trouver une place qui n’est qu’exceptionnellement celle que son inventeur lui destinait. Par exemple le rail a été à l’origine mis au point pour faciliter l’extraction du charbon dans les mines et le transistor pour s’affranchir des lampes. Introduire un nouveau produit représente un risque, d’autant plus grand s’il faut faire émerger le besoin et éduquer le client. Attention au rejet de ce que l’on ne connaît pas, l’inconnu est toujours jugé dangereux et généralement les consommateurs rejettent les concepts les plus innovants.
Si l’on prend le cas des Big Data, leur apport ne se lit pas immédiatement dans les comptes d’exploitation mais dans les innovations qu’elles génèrent : impact sur la productivité finale et possibilité de se différencier de la concurrence. L’apport principal pour les entreprises utilisatrices est la capacité à apprendre et à inventer de nouvelles stratégies organisationnelles et concurrentielles qui permettent de faire la différence. Pour sortir des cas habituels (Google, eBay, LinkedIn, …) et regarder l’apport des Big Data au niveau de tout un secteur par exemple, dans l’industrie de la distribution elles permettent d’appréhender les comportements des clients à travers de multiples canaux, de mieux optimiser les investissements marketing, de développer de nouveaux services clients, de vendre plus via de meilleurs moteurs de recommandation, etc.
Les innovations radicales qui créent une rupture forte pour l’utilisateur, sont rares dans le domaine des technologies de l’information (l’ordinateur en 45, le microprocesseur en 71, le navigateur en 91). Les Big Data apporteront essentiellement des innovations incrémentales. Il ne s’agit donc pas d’être dans une logique d’acheter des solutions Big Data et de voir ce que l’on peut en tirer, mais il convient de les utiliser pour adapter son modèle d’affaires (produits/services, organisation, etc. …) et tirer profit des nouvelles possibilités offertes. Mais attention les projets informatiques échouent généralement par absence de cadrage stratégique, absence d’étude d’impact, survente par des consultants, le tout habituellement lié à une maîtrise d’ouvrage insuffisante ou absente et au final habituellement on rend responsable de l’échec les utilisateurs accusés de faire de la résistance au changement.
Pour les responsables Marketing les Big Data offrent de nombreuses possibilités d’innover dans le positionnement de leur offre, au niveau du produit en offrant de nouveaux services, au niveau du prix (tarification dynamique), au niveau des canaux de distribution, au niveau de la communication.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter le lien suivant menant à un podcast de 16’, intitulé « Big Data and Data-Driven Innovation » cliquez ici
Le thème du Big Data fait le buzz depuis près de deux ans, mais les mises en œuvre concrètes sont encore peu nombreuses, voire rares en France. Il y a par contre de très nombreux POC (proof of concept), mais les informations les concernant sont mitigées, les démonstrations de faisabilité sont faites, mais les perspectives économiques ne sont pas toujours à la hauteur des espérances, et la conduite de ce type de projet se profile comme n’étant pas un long fleuve tranquille. Le Gartner qui a bien exploré le sujet annonce que 2014 sera pour le Big Data une année de correction des illusions et de retour au réalisme.
Dans ce contexte beaucoup de responsable, en particulier ceux qui sont dans de petites entreprises, se demandent s’ils doivent se lancer dans le Big Data aujourd’hui. S’ils consultent des experts, ces derniers leur expliquent que le Big Data peut intéresser toutes sortes d’organisation et de nombreuses fonctions dans les entreprises, que l’on trouve des pionniers du Big Data dans tous les secteurs d’industrie, et qu’il y a des organismes de toutes tailles, les plus petits opérant en mode cloud. Donc, sauf exception, les experts recommandent de regarder très sérieusement ce que le Big Data pourrait concrètement apporter.
Il est vrai que parmi les pionniers du Big Data utilisant des solutions de Teradata, on trouve des entreprises de taille très différentes allant de grands groupes comme Wall-Mart, Wells Fargo, Boeing, Apple, beaucoup de sociétés liées au web comme eBay, Amazon, Overstock, des sociétés plus petites comme LinkedIn (1700 personnes), Mzinga (500), Gilt Groupe (250) et de nombreuses agences de communication qui utilisent des solutions cloud de Teradata (Razorfish, EightfoldLogic, …). Ceci se vérifie aussi en Europe avec des clients comme Otto group ou Full Tilt Poker.
La question est donc par où commencer ? Beaucoup de POC sont gérés par les départements IT et ne visent qu’à explorer les conditions techniques de mise en œuvre de plateformes Big Data, de programmes MapReduce, en particulier avec des solutions Hadoop. Ceci explique les résultats mitigés enregistrés actuellement. Cependant cela n’explique pas tout, la plupart des POC essaient d’utiliser des données Big Data, pour améliorer des modèles existants, et ils y arrivent, ils produisent de meilleurs modèles, mais le plus souvent le gain est marginal, et le ROI additionnel par rapport aux anciens modèles n’est pas si extraordinaire.
S’il est rassurant de s’essayer dans des domaines connus, d’améliorer un scoring existant, les ROI récompensent les démarches « décision/action » innovantes. Il faut investir dans des domaines que l’entreprise n’a pas ou peu explorés, et développer non seulement de nouvelles analyses, mais aussi de nouvelles approches métiers. Pour cela les domaines en pointe concernent le marketing digital, la fraude, la maintenance, la qualité, … Même si tout dépend de ce que fait déjà l’entreprise, de son niveau de développement, il y a pour les équipes innovantes de très nombreuses opportunités.
Pour trouver leur chemin, les entreprises doivent partir de leur modèle d’affaires, de leur stratégie, et identifier les Big Data qui ont un sens, puis les explorer. Il faut pour cela constituer une équipe incluant des représentants de l’informatique, des métiers et au moins un data scientist. L’exploration doit prendre la forme d’un POV (proof of value). Les premiers projets qui seront développés ensuite, le seront en mode agile. Enfin, il est hautement recommandé de se faire assister par des consultants qui ont de l’expérience, et de se référer à des cas réels, par exemple ceux de Teradata Aster via le lien ci-joint : http://www.asterdata.com/customers/index.php
Tags :
Business Intelligence
Business Intelligence Analyse de Données Big Data Business Intelligence CRM Cloud Computing Data Mining Data Warehouse Décisionnel Finance Infocentre Intelligence Economique Marketing Médias Sociaux Relation Client Réseaux Sociaux Big Data
décisionnel entrepôt de données
Intelligence Economique
Relation Client
Dans le monde complexe d’aujourd’hui les risques sont partout, mais en même temps, leur bonne gestion offre l'une des opportunités les plus sûres pour les organisations de mettre en oeuvre des innovations qui améliorent l'agilité, les possibilités de développement et l'efficacité opérationnelle. La gestion des risques est toujours quelque chose de spécifique à chaque organisation, entre autres du fait de l’importance de la culture d’entreprise en matière d’acceptation des risques. Ce qu’une compagnie considère comme un niveau inacceptable de risque peut sembler parfaitement acceptable à d’autres. Les processus de gestion des risques sont là pour aider les décideurs à évaluer les risques et à bien définir les ressources à prévoir pour leur gestion.
Chacun convient qu'il y a des risques qui peuvent être négligeables pour les organisations tandis que certains risques opérationnels peuvent gravement affecter le déroulement des affaires. Par exemple, une affaire peut être trop « bonne », et amener l'organisation au plafond de ses capacités de production. Au final elle peut être réellement bonne si elle se termine de façon profitable. Mais elle peut aussi se révéler mauvaise, si elle fait perdre de l'argent et génère des perturbations dans le service des autres clients, parce qu’en fait les capacités ont été surévaluées. Nous sommes là dans un cas typique de gestion des risques.
L’industrie des services financiers qui est particulièrement sensible à ce qui peut arriver à son argent, est pionnière en matière de gestion des risques. Beaucoup de banques se sont concentrées ces dernières années sur le développement de méthodologie pointue de gestion des risques et ont prolongé leur réflexion au delà du thème classique du risque de crédit en abordant d’autres thèmes, comme les risques de marché ou les risques opérationnels. Certains risques se contrôlent mieux que d'autres. Par exemple les risques de crédit peuvent être couverts par des réserves de perte ou différents mécanismes du même genre. Mais pour ce qui est des risques opérationnels, des établissements financiers ont disparu simplement parce qu'ils n'avaient pas prévu l’existence de traders escrocs. Dans un climat de normalisation intense, les directions des banques pourraient être invitées à fournir beaucoup plus de détails sur leurs risques, mais ceci peut ne pas être un problème car avec de bons moyens de gestion des risques, les décideurs accèdent en temps réel à des informations détaillées et sont à même de fournir une image précise des risques suivants différents angles de vue.
Une bonne approche des risques offre aussi des avantages métier. Par exemple une banque équipée d’un système de gestion des risques intégrant en temps réel tous les événements pertinents à suivre, peut considérablement réduire son exposition aux risques pour certains clients. Un tel système peut également aider les services financiers à voir si les clients sont toujours dans les bonnes limites, et donc continuer à répondre à leurs demandes en conséquence et ainsi augmenter l’activité. Les limites de contrôle peuvent être fixées par pays, groupes de produit, contre- parties, structures d'associé ou industries ou par n'importe quelle combinaison de ces éléments. Une fois que ces limites sont établies dans le système, le suivi des événements déclenche des alertes aux employés et ainsi ils peuvent gérer plus d'affaires sans avoir par exemple des délais trop longs pour statuer sur les crédits.
Les entreprises non financières commencent également à examiner l’intérêt de la gestion des risques. Par exemple, le plus grand risque pour une compagnie maritime peut ne pas venir des hasards inhérents au voyage maritime tels qu’une mer déchaînée ou une panne d’équipement, mais d’une mauvaise transmission d'information aux autorités portuaires ou à des organismes gouvernementaux. Non seulement les amendes et les pénalités peuvent être importantes mais de mauvaises déclarations peuvent entraîner une interdiction de naviguer, qui peut maintenir à quai un navire pour des semaines laissant les clients attendre et l’équipage sans activité. Une initiative de gestion des risques peut aider à mettre sous contrôle les transmissions l'information.
> A LIRE EN CE MOMENT SUR DECIDEO
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
-
Splunk offre aux organisations une visibilité unifiée et des informations métiers exploitables dans toute l’entreprise
-
Dell Technologies étend ses innovations en matière d’IA au Edge
-
Eviden à la pointe du calcul haute performance avec une nouvelle offre de réseau adaptée à l'IA
-
SCC accélère l'adoption de l'IA à travers la France, libérant le potentiel des espaces intelligents
-
IA Générative : les 5 points de vigilance que tout responsable de la sécurité devrait surveiller
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques