Yves de Montcheuil, VP Marketing de Talend
Tout a été dit (enfin, presque…) sur l’avalanche de données qui s’abat aujourd’hui sur les entreprises, du fait entre autres de la multiplication des systèmes automatisés de collecte de données (capteurs intelligents), de la montée en puissance des réseaux sociaux, de l’internet des objets, etc. Les précurseurs de l’analyse de ces Big Data ont été, comme souvent, des très grandes entreprises (Google, Yahoo!, opérateurs télécom, institutions financières, grande distribution…).
Avec le temps, les technologies se sont démocratisées[1] et de multiples expertises sectorielles sont apparues – fraude, connaissance client, sécurité, aide au diagnostic médical, etc. En effet, l’analyse de ces volumes massifs de données offre des bénéfices innombrables en termes d’identification de tendances métiers, de comportements d’achat ou d’efficacité marketing, que les entreprises cherchent désormais à s’approprier.
Si les principales motivations pour le développement des programmes de « Big Analytics » sont aujourd’hui bien connues (délais d’accès trop longs à l’information, multiplicité des formats, stockage en silos et croissance trop rapide des volumes)[2], le principal frein à leur développement résidait principalement jusqu’alors dans leur coût d’acquisition.
Pourtant, force est de constater qu’avec la démocratisation des technologies et l’apparition de nouveaux acteurs issus de l’univers open source, le coût de développement d’un environnement de traitement des Big Data n’est plus aussi important qu’auparavant.
En termes techniques, trois composants majeurs sont nécessaires à l’analyse des Big Data. D’une part, l’intégration de données : l’efficacité de votre programme de Big Analytics dépend avant tout de votre capacité à collecter et déplacer rapidement (voire à transformer) des données issues de multiples sources. C’est la vocation historique des ETL qui doivent être capables en outre de prendre en charge une grande variété de formats : applications transactionnelles, réseaux sociaux et sources de données non structurées (e-mails, vidéos, messageries instantanées, etc.).
D’autre part, la prise en charge de ces données non structurées qui représentait il y a encore peu de temps le cauchemar de toutes les directions informatiques, est aujourd’hui largement facilitée par les solutions reposant sur Hadoop – caractérisées non seulement par un coût réduit, mais, surtout, par une efficacité éprouvée.
Enfin, les solutions de visualisation de données permettent d’interpréter plus facilement les données, grâce à des graphiques, des tableaux de bord et des rapports non seulement interactifs et également très ergonomiques et personnalisables. Nous sommes entrés dans l’ère de l’image et la business intelligence n’y échappera pas.
Ces trois composants existent aujourd’hui en version open source, ce qui signifie que tout type d’entreprise - et donc à fortiori les PME - peut bénéficier instantanément de leur puissance pour se lancer dans des programmes de Big Analytics. Caractérisés par leur facilité de prise en main et de déploiement, ils accélèrent les courbes d’adoption – notamment par les spécialistes métiers – sans grever le budget de l’entreprise.
Cette facilité de prise en main est d’autant plus importante que le marché manque aujourd’hui cruellement de spécialistes[3] : 20% des propositions d’emploi dans le secteur technologique concernent l’analytique et le traitement des Big Data[4], et les projections annoncent déjà une carence des profils analytiques dans le monde pour les deux années à venir. L’une des solutions envisagée par les entreprises est de former leurs propres spécialistes en interne. Avec des applications conviviales, ces derniers consacrent le plus clair de leur temps à des problématiques métiers, plutôt qu’informatiques.
Au-delà du retour sur investissement accéléré, provenant d’un investissement initial minime, c’est bien la rentabilité globale des entreprises que les Big Analytics se proposent d’accroître[5], puisqu’elles permettent d’expérimenter, de créer de nouvelles offres, voire même de nouveaux business models[6]. Les PME, souvent plus réactives que les grandes entreprises, sauront sans nul doute profiter de cette aubaine.
[1] http://tv.silicon.fr/Yves-de-MONTCHEUIL-Talend-l-opensource-permet-de-democratiser-le-Big-Data-aupres-des-PME_v48.html
[2] http://www.talend.com/resources/whitepapers/aberdeen-research-big-data-for-small-budgets
[3] http://www.cio.com.au/article/444445/it_departments_battle_data_analytics_talent/
[4] http://www.usatoday.com/story/money/business/2012/10/01/hot-tech-jobs-demand/1593105/
[5] http://www.mckinsey.com/insights/marketing_sales/putting_big_data_and_advanced_analytics_to_work
[6] « 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel. » in http://www.lemagit.fr/technologie/gestion-des-donnees/formats-archivage/2012/09/26/big-data-un-interet-reel-des-entreprises-en-depit-de-leur-manque-dexpertise/.
Avec le temps, les technologies se sont démocratisées[1] et de multiples expertises sectorielles sont apparues – fraude, connaissance client, sécurité, aide au diagnostic médical, etc. En effet, l’analyse de ces volumes massifs de données offre des bénéfices innombrables en termes d’identification de tendances métiers, de comportements d’achat ou d’efficacité marketing, que les entreprises cherchent désormais à s’approprier.
Si les principales motivations pour le développement des programmes de « Big Analytics » sont aujourd’hui bien connues (délais d’accès trop longs à l’information, multiplicité des formats, stockage en silos et croissance trop rapide des volumes)[2], le principal frein à leur développement résidait principalement jusqu’alors dans leur coût d’acquisition.
Pourtant, force est de constater qu’avec la démocratisation des technologies et l’apparition de nouveaux acteurs issus de l’univers open source, le coût de développement d’un environnement de traitement des Big Data n’est plus aussi important qu’auparavant.
En termes techniques, trois composants majeurs sont nécessaires à l’analyse des Big Data. D’une part, l’intégration de données : l’efficacité de votre programme de Big Analytics dépend avant tout de votre capacité à collecter et déplacer rapidement (voire à transformer) des données issues de multiples sources. C’est la vocation historique des ETL qui doivent être capables en outre de prendre en charge une grande variété de formats : applications transactionnelles, réseaux sociaux et sources de données non structurées (e-mails, vidéos, messageries instantanées, etc.).
D’autre part, la prise en charge de ces données non structurées qui représentait il y a encore peu de temps le cauchemar de toutes les directions informatiques, est aujourd’hui largement facilitée par les solutions reposant sur Hadoop – caractérisées non seulement par un coût réduit, mais, surtout, par une efficacité éprouvée.
Enfin, les solutions de visualisation de données permettent d’interpréter plus facilement les données, grâce à des graphiques, des tableaux de bord et des rapports non seulement interactifs et également très ergonomiques et personnalisables. Nous sommes entrés dans l’ère de l’image et la business intelligence n’y échappera pas.
Ces trois composants existent aujourd’hui en version open source, ce qui signifie que tout type d’entreprise - et donc à fortiori les PME - peut bénéficier instantanément de leur puissance pour se lancer dans des programmes de Big Analytics. Caractérisés par leur facilité de prise en main et de déploiement, ils accélèrent les courbes d’adoption – notamment par les spécialistes métiers – sans grever le budget de l’entreprise.
Cette facilité de prise en main est d’autant plus importante que le marché manque aujourd’hui cruellement de spécialistes[3] : 20% des propositions d’emploi dans le secteur technologique concernent l’analytique et le traitement des Big Data[4], et les projections annoncent déjà une carence des profils analytiques dans le monde pour les deux années à venir. L’une des solutions envisagée par les entreprises est de former leurs propres spécialistes en interne. Avec des applications conviviales, ces derniers consacrent le plus clair de leur temps à des problématiques métiers, plutôt qu’informatiques.
Au-delà du retour sur investissement accéléré, provenant d’un investissement initial minime, c’est bien la rentabilité globale des entreprises que les Big Analytics se proposent d’accroître[5], puisqu’elles permettent d’expérimenter, de créer de nouvelles offres, voire même de nouveaux business models[6]. Les PME, souvent plus réactives que les grandes entreprises, sauront sans nul doute profiter de cette aubaine.
[1] http://tv.silicon.fr/Yves-de-MONTCHEUIL-Talend-l-opensource-permet-de-democratiser-le-Big-Data-aupres-des-PME_v48.html
[2] http://www.talend.com/resources/whitepapers/aberdeen-research-big-data-for-small-budgets
[3] http://www.cio.com.au/article/444445/it_departments_battle_data_analytics_talent/
[4] http://www.usatoday.com/story/money/business/2012/10/01/hot-tech-jobs-demand/1593105/
[5] http://www.mckinsey.com/insights/marketing_sales/putting_big_data_and_advanced_analytics_to_work
[6] « 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel. » in http://www.lemagit.fr/technologie/gestion-des-donnees/formats-archivage/2012/09/26/big-data-un-interet-reel-des-entreprises-en-depit-de-leur-manque-dexpertise/.