Pierre Formosa, Responsable Avant-Vente, Umanis
Comment en est on arrivé à l’explosion des données ? Petit rappel historique…
Il y a maintenant 50 ans, les premiers ordinateurs ont rendu possible la codification de l’information et donc ont permis de lire l’information sur support numérique. 30 ans plus tard, les premiers ordinateurs personnels ont rendu possible l’accès à l’information directement de chez soi. Puis, le maillage exponentiel d’internet a fait que la production d’information, et donc de données, a littéralement explosé ! Enfin, nous sommes aujourd’hui entré de plein pied dans une nouvelle ère dite de la consumérisation de l’IT avec des phénomènes comme le BYOD (Bring Your Own Device) tirée par la forte pénétration des terminaux mobiles en entreprises mais aussi l’arrivée en volume d’une nouvelle génération de données non structurées, c'est-à-dire qui ne peuvent pas être gérées ni traitées par les base de données traditionnelles.
C’est dans ce contexte, où le besoin de traiter et d’analyser des données en volume (structurées ou non) se fait sentir, que le Big Data prend tout son sens.
Tout d’abord, que recouvre la notion de Big Data ?
Le Big Data permet de traiter, d'exploiter et d'analyser intelligemment en temps-réel de larges flots continus de données non ou semi-structurées, qui n’étaient pas exploitées jusqu'à présent. Il promet également d'être source de création de richesse, d'innovation, de créativité, de compétitivité et de productivité.
Le Big Data, ce n'est pas tant le volume que l'usage que l'on en fait. Derrière le concept, il s'agit bien d'extraire de la valeur de toutes les informations que l'on recueille... ce qui était considéré comme infaisable jusqu'à alors avec les systèmes traditionnels de BDD relationnelles peu performants sur de larges volumes, trop lents et fortement consommateurs de mémoire.
En résumé, la notion de Big Data est étroitement liée au fait qu’elle correspond à l’impossibilité de manipuler un volume de données avec la technologie disponible à l’instant « T ». Le Big Data ne fait finalement pas tant référence aux données, mais plutôt aux technologies de recherche et d’innovation qui permettent la gestion, le traitement et l’analyse de cette information.
Quel est le véritable enjeu du Big Data ?
Les données ne sont pas intelligentes par elles-mêmes ni pour elles mêmes, et leur taille ne les rend pas davantage intelligentes. Si intelligence il y a, celle-ci vient de l’interaction de ces données entre-elles et de l’impact qu’elles vont avoir dans leurs contexte d’évolution…
Le véritable enjeu du Big Data réside donc dans la capacité à mettre en scène ces volumes de données en fonction de scénarios hypothétiques variables et d’en reconnaitre la bonne corrélation.
Le Big Data doit permettre de mettre en musique toutes les données et donc de les capturer (en temps réel continu et selon des flux aléatoires non prédictibles), les exploiter, les valoriser, les analyser, les rechercher et enfin les stocker.
Quels sont les pré-requis à la mise en œuvre d’une architecture Big Data ? Et comment sont organisées les données ?
Il faut être capable de traiter les 3 points suivants : une grande diversité d’information, un volume important, et une alimentation en flux constant ! Par ailleurs une architecture « Big Data » se doit d’être communicante, une approche classique en silo est donc d’avance vouée à l’échec, le système s’effondrera sur lui-même très rapidement… Dans la grande majorité des cas, pour ne pas dire dans tous les cas, une approche « Big Data » doit être appuyée sur une appliance capable de gérer tous ces aspects. Naturellement, il convient d’accompagner cette démarche par la mise en œuvre de compétences adaptées au travers de processus de gestion du cycle de vie de ces informations en s’intégrant dans la politique de « Data Gouvernance » de l’entreprise.
Quels peuvent être les domaines d’application ? et les fonctionnalités ?
Il n’y a pas de domaine privilégié pour le Big data, mais il est clair que les secteurs gros consommateurs de données seront potentiellement plus intéressés par ces solutions. Les acteurs de la grande distribution, des télécoms, les acteurs internet et les sondeurs sont aujourd’hui des pourvoyeurs de données qui nécessitent la mise en œuvre de telles solutions. Les points communs à tous ces domaines d’activités peuvent se résumer par la nécessité d’analyser en temps réel des flux de données très importants pour ajuster au mieux leurs politiques commerciales au contexte concurrentiel dans lequel ils évoluent !
Qui sont les acteurs de ce marché ?
Nous pouvons classifier en trois grandes catégories ces acteurs :
- Niche players : Infobright, San Technology, Illuminate, 1010 Data
- Challengers : Actian, Microsoft
- Leaders : EMC, IBM, Oracle, SAP, Teradata
Les grands acteurs du marché on également opéré des rachats sur ce secteur et notamment SAP avec Sybase IQ ou encore IBM avec Netezza.
Il y a maintenant 50 ans, les premiers ordinateurs ont rendu possible la codification de l’information et donc ont permis de lire l’information sur support numérique. 30 ans plus tard, les premiers ordinateurs personnels ont rendu possible l’accès à l’information directement de chez soi. Puis, le maillage exponentiel d’internet a fait que la production d’information, et donc de données, a littéralement explosé ! Enfin, nous sommes aujourd’hui entré de plein pied dans une nouvelle ère dite de la consumérisation de l’IT avec des phénomènes comme le BYOD (Bring Your Own Device) tirée par la forte pénétration des terminaux mobiles en entreprises mais aussi l’arrivée en volume d’une nouvelle génération de données non structurées, c'est-à-dire qui ne peuvent pas être gérées ni traitées par les base de données traditionnelles.
C’est dans ce contexte, où le besoin de traiter et d’analyser des données en volume (structurées ou non) se fait sentir, que le Big Data prend tout son sens.
Tout d’abord, que recouvre la notion de Big Data ?
Le Big Data permet de traiter, d'exploiter et d'analyser intelligemment en temps-réel de larges flots continus de données non ou semi-structurées, qui n’étaient pas exploitées jusqu'à présent. Il promet également d'être source de création de richesse, d'innovation, de créativité, de compétitivité et de productivité.
Le Big Data, ce n'est pas tant le volume que l'usage que l'on en fait. Derrière le concept, il s'agit bien d'extraire de la valeur de toutes les informations que l'on recueille... ce qui était considéré comme infaisable jusqu'à alors avec les systèmes traditionnels de BDD relationnelles peu performants sur de larges volumes, trop lents et fortement consommateurs de mémoire.
En résumé, la notion de Big Data est étroitement liée au fait qu’elle correspond à l’impossibilité de manipuler un volume de données avec la technologie disponible à l’instant « T ». Le Big Data ne fait finalement pas tant référence aux données, mais plutôt aux technologies de recherche et d’innovation qui permettent la gestion, le traitement et l’analyse de cette information.
Quel est le véritable enjeu du Big Data ?
Les données ne sont pas intelligentes par elles-mêmes ni pour elles mêmes, et leur taille ne les rend pas davantage intelligentes. Si intelligence il y a, celle-ci vient de l’interaction de ces données entre-elles et de l’impact qu’elles vont avoir dans leurs contexte d’évolution…
Le véritable enjeu du Big Data réside donc dans la capacité à mettre en scène ces volumes de données en fonction de scénarios hypothétiques variables et d’en reconnaitre la bonne corrélation.
Le Big Data doit permettre de mettre en musique toutes les données et donc de les capturer (en temps réel continu et selon des flux aléatoires non prédictibles), les exploiter, les valoriser, les analyser, les rechercher et enfin les stocker.
Quels sont les pré-requis à la mise en œuvre d’une architecture Big Data ? Et comment sont organisées les données ?
Il faut être capable de traiter les 3 points suivants : une grande diversité d’information, un volume important, et une alimentation en flux constant ! Par ailleurs une architecture « Big Data » se doit d’être communicante, une approche classique en silo est donc d’avance vouée à l’échec, le système s’effondrera sur lui-même très rapidement… Dans la grande majorité des cas, pour ne pas dire dans tous les cas, une approche « Big Data » doit être appuyée sur une appliance capable de gérer tous ces aspects. Naturellement, il convient d’accompagner cette démarche par la mise en œuvre de compétences adaptées au travers de processus de gestion du cycle de vie de ces informations en s’intégrant dans la politique de « Data Gouvernance » de l’entreprise.
Quels peuvent être les domaines d’application ? et les fonctionnalités ?
Il n’y a pas de domaine privilégié pour le Big data, mais il est clair que les secteurs gros consommateurs de données seront potentiellement plus intéressés par ces solutions. Les acteurs de la grande distribution, des télécoms, les acteurs internet et les sondeurs sont aujourd’hui des pourvoyeurs de données qui nécessitent la mise en œuvre de telles solutions. Les points communs à tous ces domaines d’activités peuvent se résumer par la nécessité d’analyser en temps réel des flux de données très importants pour ajuster au mieux leurs politiques commerciales au contexte concurrentiel dans lequel ils évoluent !
Qui sont les acteurs de ce marché ?
Nous pouvons classifier en trois grandes catégories ces acteurs :
- Niche players : Infobright, San Technology, Illuminate, 1010 Data
- Challengers : Actian, Microsoft
- Leaders : EMC, IBM, Oracle, SAP, Teradata
Les grands acteurs du marché on également opéré des rachats sur ce secteur et notamment SAP avec Sybase IQ ou encore IBM avec Netezza.