Blandine LAFFARGUE, responsable des conférences de Corp Events
Parler du Big Data à l’heure où sa simple évocation suffit à alimenter les espoirs les plus fous autour de la maîtrise de l’information, relève du jeu de dupes : car si tout le monde s’accorde à penser qu’il s’agit là de la nouvelle révolution de l’informatique mondiale, personne ne dispose en l’état de la même définition que son voisin.
Que faut-il entendre derrière cette expression aux consonances clairement journalistiques ?
L’accroissement du volume, de la variété et du flux de données, comme l’exprimait McKinsey ? Ou bien l’intégration de données distribuées sur toute la toile et dans les ERP des multinationales ? Ou encore le traitement à grande vitesse de données non-structurées (entendre : emails, vidéos, photos, etc…) via des logiciels en open source sur le marché ?
Les interprétations ne manquent pas et « l’offre Big Data » générée par les fournisseurs IT traduit, par son hétérogénéité, la difficulté qu’ont parfois les experts à mettre derrière cette apparente simplicité du mot, une unique arrière-pensée.
Revenons aux fondements : le traitement des données.
A prendre au pied de la lettre, le Big Data, et sa traduction matérielle la plus flagrante, Hadoop, ne seraient ni plus ni moins que le « data » des années 2000, en plus gros, plus rapide, plus varié… Un passage à l’échelle réussi grâce aux technologies de stockage, de compression et de calcul parallèle mises au point après les balbutiements de Google et Yahoo sur la question. Désormais, au cœur des bases de données non-relationnelles, au sein des serveurs Scale-Out et sous l’action bienveillante des Hive, HBase et autres logiciels de traitement… le « Data » se serait mué en « Big Data ».
L’escalade peut faire sourire ; elle pousse surtout certains à dénoncer derrière l’urgence de la révolution Big Data l’emphase démesurée accordée à un phénomène qui n’est ni plus ni moins qu’un accroissement quantitatif des données.
Analyser des tickets de caisse ? Mais on le fait depuis des années !
Faire des échantillons d’1 million de personnes au lieu de 1000 ? Ce n’est pas le nombre, mais la représentativité qui compte !
Pourtant le ver est dans la pomme. Ou plutôt la perle dans l’huître.
Car en envahissant de sa puissance numérique serveurs et bases de données traditionnels, en modifiant de l’intérieur leur architecture et leur vitesse, la « data » devenue « big » a semé au cœur de l’appareil décisionnel deux pépites devenues mines d’or : une donnée prise à la source (via les appareils RFID, les réseaux sociaux, etc…), multidimensionnelle et quasi-simultanée, d’une part, garantissant ainsi une analyse qualitative lavée de tout soupçon de biais. Et, d’autre part, une conscience généralisée de l’intérêt majeur d’exploiter enfin ce potentiel trop longtemps négligé au sein de l’organisation.
En clair : une information plus riche, une exploitation plus systématique.
Quelque chose a donc changé, et ce n’est pas dans la mécanique bien huilée qu’il faut chercher le point d’inflexion, ni dans les nouvelles dimensions de la structure : en produisant en cascade de la donnée brute directement issue des consommations internes (logistique de l’entreprise) et externes (demande des consommateurs), les nouvelles technologies connectées ont conçu un prisme toujours plus précis à travers lequel envisager l’avenir : analyse de sentiments (ex : définir les besoins d’une personne à partir de ses goûts exprimés sur les réseaux sociaux), croisement des données multidimensionnelles (ex : croiser des chiffres de vente avec la météo afin de définir les stocks à venir), analyse en temps réel (ex : simulations boursières)…
Mais le prisme, justement, ne se construit pas tout seul.
A quoi ressemblera l’entreprise de demain ? C’est sûrement là que réside la vraie révolution Big Data : dans l’empreinte qu’il laissera, à n’en pas douter, sur l’organisation et la stratégie de l’entreprise.
Car la question qui agite actuellement les conversations des supporters du Big Data est la suivante : comment construire ce fameux prisme, celui qui permettra aux dirigeants de réduire au maximum les aléas de l’avenir ?
L’enjeu est de taille et les cabinets de consulting n’ont pas attendu le feu vert des marchés pour se pencher sur le problème. Leur verdict est sans appel : la donnée n’aura de postérité que si elle arrive à s’échapper des départements informatiques des entreprises. Non pas en fuite organisée, mais en dialogue collaboratif avec les services opérationnels associés, avec l’objectif impératif de coller au plus près à la réalité qu’impose quotidiennement le terrain : une donnée marketing n’aura de sens que si elle est traitée directement par la Direction Marketing,… mais avec l’aide de la DSI.
Cette nouvelle organisation impose de facto une rigueur drastique dans le partage des compétences et dans les échanges permanents d’informations. Mais surtout, elle contraint le manager visionnaire à replacer la donnée au centre de l’échiquier, là où celle-ci n’était avant qu’une feuille de route indicative : désormais, décisions de long terme et décisions de court terme (voire de temps réel) répondront quasi-exclusivement aux injonctions répétées de l’analyse prédictive. Un challenge en termes d’organisation mais surtout un bouleversement psychologique pour des entreprises habituées au management top-to-bottom.
Décentraliser l’information… voilà probablement l’avancée majeure portée par le Big Data, avec en toile de fond les clés d’une meilleure responsabilisation du terrain et la possibilité de rendre enfin l’information disponible à tous et à chacun, dans son périmètre de travail et au-delà. Elle est peut-être là, la promesse du Big Data : dans l’autonomie et la capacité de décision redonnée à toutes les strates de l’organisation.
On est loin, ici, des discours inévitables et nécessaires sur l’ombre planante d’un Big Brother à la sauce 2.0. Cette question-là, plus que toute autre, sera certainement au cœur de la problématique marketing à l’heure de l’explosion des réseaux sociaux et des achats en ligne : il faudra alors, pour préserver la confiance des consom’acteurs, recentrer les impératifs autour du graal de l’anonymat... un chantier titanesque pour les autorités de régulation.
Le Big Data, objet de fantasmes pour une société toujours plus guidée par la connaissance et sa maîtrise, n’a pas fini de livrer ses promesses, entre pouvoir de prévision et contrôle démultiplié des activités.
Les premiers signaux sont là, la vision et la volonté feront le reste…
Vous avez dit « révolution » ?
*Blandine Laffargue est responsable de conférence chez Corp Events.
Positionnée sur des sujets d’innovation et les marchés porteurs, Corp Events rassemble, pour chacun de ses événements, un large panel d’experts sur des conférences thématiques.
Big Data Paris est l’événement attendu en mars par les professionnels de tous secteurs pour se former sur la dernière révolution IT et managériale de l’ère 2.0.
Que faut-il entendre derrière cette expression aux consonances clairement journalistiques ?
L’accroissement du volume, de la variété et du flux de données, comme l’exprimait McKinsey ? Ou bien l’intégration de données distribuées sur toute la toile et dans les ERP des multinationales ? Ou encore le traitement à grande vitesse de données non-structurées (entendre : emails, vidéos, photos, etc…) via des logiciels en open source sur le marché ?
Les interprétations ne manquent pas et « l’offre Big Data » générée par les fournisseurs IT traduit, par son hétérogénéité, la difficulté qu’ont parfois les experts à mettre derrière cette apparente simplicité du mot, une unique arrière-pensée.
Revenons aux fondements : le traitement des données.
A prendre au pied de la lettre, le Big Data, et sa traduction matérielle la plus flagrante, Hadoop, ne seraient ni plus ni moins que le « data » des années 2000, en plus gros, plus rapide, plus varié… Un passage à l’échelle réussi grâce aux technologies de stockage, de compression et de calcul parallèle mises au point après les balbutiements de Google et Yahoo sur la question. Désormais, au cœur des bases de données non-relationnelles, au sein des serveurs Scale-Out et sous l’action bienveillante des Hive, HBase et autres logiciels de traitement… le « Data » se serait mué en « Big Data ».
L’escalade peut faire sourire ; elle pousse surtout certains à dénoncer derrière l’urgence de la révolution Big Data l’emphase démesurée accordée à un phénomène qui n’est ni plus ni moins qu’un accroissement quantitatif des données.
Analyser des tickets de caisse ? Mais on le fait depuis des années !
Faire des échantillons d’1 million de personnes au lieu de 1000 ? Ce n’est pas le nombre, mais la représentativité qui compte !
Pourtant le ver est dans la pomme. Ou plutôt la perle dans l’huître.
Car en envahissant de sa puissance numérique serveurs et bases de données traditionnels, en modifiant de l’intérieur leur architecture et leur vitesse, la « data » devenue « big » a semé au cœur de l’appareil décisionnel deux pépites devenues mines d’or : une donnée prise à la source (via les appareils RFID, les réseaux sociaux, etc…), multidimensionnelle et quasi-simultanée, d’une part, garantissant ainsi une analyse qualitative lavée de tout soupçon de biais. Et, d’autre part, une conscience généralisée de l’intérêt majeur d’exploiter enfin ce potentiel trop longtemps négligé au sein de l’organisation.
En clair : une information plus riche, une exploitation plus systématique.
Quelque chose a donc changé, et ce n’est pas dans la mécanique bien huilée qu’il faut chercher le point d’inflexion, ni dans les nouvelles dimensions de la structure : en produisant en cascade de la donnée brute directement issue des consommations internes (logistique de l’entreprise) et externes (demande des consommateurs), les nouvelles technologies connectées ont conçu un prisme toujours plus précis à travers lequel envisager l’avenir : analyse de sentiments (ex : définir les besoins d’une personne à partir de ses goûts exprimés sur les réseaux sociaux), croisement des données multidimensionnelles (ex : croiser des chiffres de vente avec la météo afin de définir les stocks à venir), analyse en temps réel (ex : simulations boursières)…
Mais le prisme, justement, ne se construit pas tout seul.
A quoi ressemblera l’entreprise de demain ? C’est sûrement là que réside la vraie révolution Big Data : dans l’empreinte qu’il laissera, à n’en pas douter, sur l’organisation et la stratégie de l’entreprise.
Car la question qui agite actuellement les conversations des supporters du Big Data est la suivante : comment construire ce fameux prisme, celui qui permettra aux dirigeants de réduire au maximum les aléas de l’avenir ?
L’enjeu est de taille et les cabinets de consulting n’ont pas attendu le feu vert des marchés pour se pencher sur le problème. Leur verdict est sans appel : la donnée n’aura de postérité que si elle arrive à s’échapper des départements informatiques des entreprises. Non pas en fuite organisée, mais en dialogue collaboratif avec les services opérationnels associés, avec l’objectif impératif de coller au plus près à la réalité qu’impose quotidiennement le terrain : une donnée marketing n’aura de sens que si elle est traitée directement par la Direction Marketing,… mais avec l’aide de la DSI.
Cette nouvelle organisation impose de facto une rigueur drastique dans le partage des compétences et dans les échanges permanents d’informations. Mais surtout, elle contraint le manager visionnaire à replacer la donnée au centre de l’échiquier, là où celle-ci n’était avant qu’une feuille de route indicative : désormais, décisions de long terme et décisions de court terme (voire de temps réel) répondront quasi-exclusivement aux injonctions répétées de l’analyse prédictive. Un challenge en termes d’organisation mais surtout un bouleversement psychologique pour des entreprises habituées au management top-to-bottom.
Décentraliser l’information… voilà probablement l’avancée majeure portée par le Big Data, avec en toile de fond les clés d’une meilleure responsabilisation du terrain et la possibilité de rendre enfin l’information disponible à tous et à chacun, dans son périmètre de travail et au-delà. Elle est peut-être là, la promesse du Big Data : dans l’autonomie et la capacité de décision redonnée à toutes les strates de l’organisation.
On est loin, ici, des discours inévitables et nécessaires sur l’ombre planante d’un Big Brother à la sauce 2.0. Cette question-là, plus que toute autre, sera certainement au cœur de la problématique marketing à l’heure de l’explosion des réseaux sociaux et des achats en ligne : il faudra alors, pour préserver la confiance des consom’acteurs, recentrer les impératifs autour du graal de l’anonymat... un chantier titanesque pour les autorités de régulation.
Le Big Data, objet de fantasmes pour une société toujours plus guidée par la connaissance et sa maîtrise, n’a pas fini de livrer ses promesses, entre pouvoir de prévision et contrôle démultiplié des activités.
Les premiers signaux sont là, la vision et la volonté feront le reste…
Vous avez dit « révolution » ?
*Blandine Laffargue est responsable de conférence chez Corp Events.
Positionnée sur des sujets d’innovation et les marchés porteurs, Corp Events rassemble, pour chacun de ses événements, un large panel d’experts sur des conférences thématiques.
Big Data Paris est l’événement attendu en mars par les professionnels de tous secteurs pour se former sur la dernière révolution IT et managériale de l’ère 2.0.