Une vaste confusion sémantique
Jeremy Harroch, Président – Fondateur, Quantmetry
La multiplicité des offres des prestataires (DMP, RTB, CRM Analytics) s’ajoute à la multiplicité des mots techniques (Hadoop, NoSQL, CEP), des métiers (dataScientists, dataMiners, dataAnalystes) et des concepts (Open Data, Big Data, dataScience) si bien que le Big Data est devenu une vaste confusion sémantique.
Les tentatives de rationalisation (les 3 V proposés par Gartner selon lesquels tout projet Big Data doit comporter l’une de ces trois particularités : Volume, Variété, Vélocité) ne représentent plus rien là où les démarches exploratoires utilisent du Hadoop avec moins de 100 Giga de données structurées à analyser, sans contraintes de temps.
Les briques logicielles se multiplient à l’infini, toujours plus performantes, en évolution permanente si bien que plus d’une centaine de logiciels sont classés dans la catégorie Big Data.
On utilise le Big Data pour tout : optimiser des campagnes de publicité, déduire les préférences des clients, améliorer les prix, comprendre les réseaux sociaux, vérifier les intrusions de virus, surveiller des tendances au point qu’il remet en cause la CNIL, le code informatique et liberté, et provoque une levée de bouclier contre un ‘Patriot Act’ à la française.
Les prestataires de service professionnels (cabinet de conseil en stratégie, outsourcing technologique, conseil en ingénierie, SSII, intégrateurs et éditeurs de logiciels) déclarent avoir une offre Big Data. Et les clients tombent dans le piège d’un Big Data magique, simple à utiliser et qui guérirait tous les maux.
Le buzz word “Big Data” est maintenant devenu trop fort au point que tout est Big Data ; alors, acceptons-le, le Big Data est suffisamment Big à lui-seul pour contenir tous ses aspects.
Les tentatives de rationalisation (les 3 V proposés par Gartner selon lesquels tout projet Big Data doit comporter l’une de ces trois particularités : Volume, Variété, Vélocité) ne représentent plus rien là où les démarches exploratoires utilisent du Hadoop avec moins de 100 Giga de données structurées à analyser, sans contraintes de temps.
Les briques logicielles se multiplient à l’infini, toujours plus performantes, en évolution permanente si bien que plus d’une centaine de logiciels sont classés dans la catégorie Big Data.
On utilise le Big Data pour tout : optimiser des campagnes de publicité, déduire les préférences des clients, améliorer les prix, comprendre les réseaux sociaux, vérifier les intrusions de virus, surveiller des tendances au point qu’il remet en cause la CNIL, le code informatique et liberté, et provoque une levée de bouclier contre un ‘Patriot Act’ à la française.
Les prestataires de service professionnels (cabinet de conseil en stratégie, outsourcing technologique, conseil en ingénierie, SSII, intégrateurs et éditeurs de logiciels) déclarent avoir une offre Big Data. Et les clients tombent dans le piège d’un Big Data magique, simple à utiliser et qui guérirait tous les maux.
Le buzz word “Big Data” est maintenant devenu trop fort au point que tout est Big Data ; alors, acceptons-le, le Big Data est suffisamment Big à lui-seul pour contenir tous ses aspects.
Une réalité permanente
Côté RH, les prévisions des besoins en analytiques sont estimés en France à quelques milliers par an, cependant l’ensemble des formations ne fournit que quelques centaines de nouveaux profils sur le marché de l’emploi auquel il faut ajouter ceux qui se forment seuls et ceux qui se repositionnent professionnellement (les traders, bio-statisticiens, chercheurs en physique et professionnels du BI). Il faudra attendre encore 3 ans pour que l’offre rencontre la demande ce qui va maintenir la bulle des salaires de dataScientists encore quelques temps.
Côté projets, chaque tentative de Big Data en entreprise est l’occasion de se reposer les mêmes questions déjà résolues de nombreuses fois par d’autres entreprises : quelle est ma roadMap, comment faire de mes premiers projets un succès démonstratif, y a-t-il de la valeur dans mes données, quelle architecture dois-je choisir, comment sélectionner mes sujets, qui va porter quelle compétence?
L’année 2014 avait bourgeonné de POC (proof of concept - des projets pilotes qui ne dureront pas dans le temps) en Big Data, l’année 2015 annonce l’éclosion des premiers dataLabs (une équipe dédiée à l’analyse de données autour d’une plateforme commune) mais on est encore loin des sujets d’industrialisation, des mises en production et surtout de l’amélioration opérationnelle par la data.
La seule certitude, c’est que le Big Data que nous vivons actuellement n’est qu’un début très balbutiant de ce que sera le Big Data dans quelques années, un peu comme dans les premières années d’Internet, où l’impact actuel des réseaux sociaux était insoupçonnable.
Et pourtant, tous les grands groupes français ont déjà commencé à réaliser leur nécessaire mutation par la data et ont conscience du bouleversement concurrentiel, du changement du rapport au client, de la remise en cause de leur modèle d’affaire. L’information sera devenue une monnaie dans un marché où ceux qui ne savent pas se l’échanger seront condamnés à mourir.
Le Big Data sera partout, dans nos ordinateurs, dans notre métier, dans notre smartphone, dans les magasins que nous fréquentons, dans les objets connectés et pourtant non, cette révolution tient moins à l’information qu’à la communication.
Côté projets, chaque tentative de Big Data en entreprise est l’occasion de se reposer les mêmes questions déjà résolues de nombreuses fois par d’autres entreprises : quelle est ma roadMap, comment faire de mes premiers projets un succès démonstratif, y a-t-il de la valeur dans mes données, quelle architecture dois-je choisir, comment sélectionner mes sujets, qui va porter quelle compétence?
L’année 2014 avait bourgeonné de POC (proof of concept - des projets pilotes qui ne dureront pas dans le temps) en Big Data, l’année 2015 annonce l’éclosion des premiers dataLabs (une équipe dédiée à l’analyse de données autour d’une plateforme commune) mais on est encore loin des sujets d’industrialisation, des mises en production et surtout de l’amélioration opérationnelle par la data.
La seule certitude, c’est que le Big Data que nous vivons actuellement n’est qu’un début très balbutiant de ce que sera le Big Data dans quelques années, un peu comme dans les premières années d’Internet, où l’impact actuel des réseaux sociaux était insoupçonnable.
Et pourtant, tous les grands groupes français ont déjà commencé à réaliser leur nécessaire mutation par la data et ont conscience du bouleversement concurrentiel, du changement du rapport au client, de la remise en cause de leur modèle d’affaire. L’information sera devenue une monnaie dans un marché où ceux qui ne savent pas se l’échanger seront condamnés à mourir.
Le Big Data sera partout, dans nos ordinateurs, dans notre métier, dans notre smartphone, dans les magasins que nous fréquentons, dans les objets connectés et pourtant non, cette révolution tient moins à l’information qu’à la communication.
L’innovation comme moteur de transparence
En réalité, on faisait du Big Data bien avant que le mot Big Data n’apparaisse. Personnellement mon expérience en trading algorithmique m’a fait découvrir un monde vaste de données, d’analyses, de calculs, de décisions prises sur des métriques quantitatives… dès 2006. A New York, en 2011, l’équipe de dataScientist autour de du Maire Bloomberg utilisait déjà des algorithmes de score pour déterminer quels immeubles étaient les plus susceptibles de prendre feu. Tout ça sur des feuilles Excel. Les départements de connaissance client de toutes les institutions financières pratiquent le dataMining avec succès depuis plus de 20 ans.
Ce qui est nouveau c’est le saut quantique entre ce qui se faisait avant et aujourd’hui. Le Big Data démocratise l’analyse de la donnée à bas coût et avec des technologies très performantes, largement décrites sur Internet grâce une communauté très active. Les projets de conduite de changement ne s’inscrivent plus dans la continuité mais dans la rupture et obligent toutes les directions d’une société à se parler.
Ainsi, les projets pilotes sont réalisés par des équipes multidisciplinaires (on parle de ‘Pizza Team’), les dataLabs ont pour clients toutes les entités de leur groupe, les dataScientists maîtrisent aussi bien le langage DSI que le langage métier. A l’échelle des Chief Data Officer de l’administration publique, ils réunissent à la même table différents ministères qui auraient dû communiquer depuis longtemps, inhibés par le conflit d’intérêt, et qui se trouvent contraints à le faire devant autant de valeur ajoutée pour le contribuable.
Internet a apporté au consommateur un outil de communication générateur de valeur, le Big Data apporte aux entreprises un outil de communication générateur de valeur.
Ce qui est nouveau c’est le saut quantique entre ce qui se faisait avant et aujourd’hui. Le Big Data démocratise l’analyse de la donnée à bas coût et avec des technologies très performantes, largement décrites sur Internet grâce une communauté très active. Les projets de conduite de changement ne s’inscrivent plus dans la continuité mais dans la rupture et obligent toutes les directions d’une société à se parler.
Ainsi, les projets pilotes sont réalisés par des équipes multidisciplinaires (on parle de ‘Pizza Team’), les dataLabs ont pour clients toutes les entités de leur groupe, les dataScientists maîtrisent aussi bien le langage DSI que le langage métier. A l’échelle des Chief Data Officer de l’administration publique, ils réunissent à la même table différents ministères qui auraient dû communiquer depuis longtemps, inhibés par le conflit d’intérêt, et qui se trouvent contraints à le faire devant autant de valeur ajoutée pour le contribuable.
Internet a apporté au consommateur un outil de communication générateur de valeur, le Big Data apporte aux entreprises un outil de communication générateur de valeur.