Patrick COFFRE, Community Manager Talend
Avec un marché global pronostiqué à $24 milliards en 2016 et un volume de données en croissance exponentielle, le big data est incontestablement un marché dynamique. Le salon se concentre ainsi sur ce sujet : de la récolte de données à l’analyse de ces données en passant par toutes les technologies proposées, Big Data Expo a présenté l’ensemble de l’environnement aux visiteurs.
L’évènement est aussi l’occasion de la tenue de conférences et tables rondes pour lesquelles je fais un retour complet dans ce post.
Pour commencer, l’un des sujets principaux évoqués lors de plusieurs interventions était Hadoop. Les conférenciers ont expliqué que Hadoop est devenu un standard « de fait » pour de nombreuses entreprises et utilisateurs. S’il est devenu incontournable, ce serait par la force de l'open source, l'alignement de plus de ressources et d'énergie qu’une seule entreprise ne pourrait déployer.
Les infrastructures big data sont aujourd’hui puissantes et bien établies. Cependant, les conférenciers ont mentionné qu’il est nécessaire que les entreprises souhaitant développer des activités autour du big data identifient des utilisations spécifiques au sein de leur département informatique.
Aussi, les sessions ont permis de mieux comprendre que le big data rend possible l’analyse en temps réel et les études prévisionnelles.
Pendant les tables rondes, les participants ont pu apprendre que Yahoo a mis 40000 nœuds en production utilisant uniquement des logiciels open source. Linkedin, quant à lui, gère 5000 nœuds avec 5 employés et la société gèrera bientôt 10000 nœuds.
Nous avons aussi compris pendant l’évènement que le big data évolue à moindre cout : avec 10000€ et 10 machines de plus installées au sein d’un cluster, un département informatique continue d’avancer. On peut en conclure que la vraie innovation avec le big data est son côté scalable et évolutif !
L’exemple de la SNCF a été évoqué à plusieurs reprises. La société utilise le big data pour réguler le trafic et à terme, elle espère pouvoir modifier le plan de transport sur l’ensemble de la région francilienne. Concernant la maintenance, la SNCF a installé des capteurs sur ses trains pour pouvoir aisément contrôler les pièces principales sur ses machines.
Un autre exemple dans le domaine public, celui des forces de l’ordre, a aussi été évoqué. Les policiers souhaitent avoir la capacité d’analyser en temps réel la situation sur le terrain et le big data permettrait d’étudier les cambriolages par quartier pour protéger les citoyens.
Le Big Data Expo 2013 de Paris aura été un des évènements marquants de l’automne parisien pour les visiteurs et entreprises intéressés par le big data. Non seulement les exposants avaient répondu présent pour l’évènement, mais les salles où les sessions se déroulaient étaient combles, du début à la fin de journée.
Les tables rondes auront été l’occasion de débats entre conférenciers mais aussi de découvertes, concernant notamment les exemples cités et les cas concrets d’utilisation dans la vie quotidienne.
Au vu de la taille du marché du big data et de la croissance exponentielle des données, le salon ainsi que les tables rondes ont permis, il me semble, aux visiteurs de mieux comprendre les problématiques liées au big data et comment les résoudre.
L’évènement est aussi l’occasion de la tenue de conférences et tables rondes pour lesquelles je fais un retour complet dans ce post.
Pour commencer, l’un des sujets principaux évoqués lors de plusieurs interventions était Hadoop. Les conférenciers ont expliqué que Hadoop est devenu un standard « de fait » pour de nombreuses entreprises et utilisateurs. S’il est devenu incontournable, ce serait par la force de l'open source, l'alignement de plus de ressources et d'énergie qu’une seule entreprise ne pourrait déployer.
Les infrastructures big data sont aujourd’hui puissantes et bien établies. Cependant, les conférenciers ont mentionné qu’il est nécessaire que les entreprises souhaitant développer des activités autour du big data identifient des utilisations spécifiques au sein de leur département informatique.
Aussi, les sessions ont permis de mieux comprendre que le big data rend possible l’analyse en temps réel et les études prévisionnelles.
Pendant les tables rondes, les participants ont pu apprendre que Yahoo a mis 40000 nœuds en production utilisant uniquement des logiciels open source. Linkedin, quant à lui, gère 5000 nœuds avec 5 employés et la société gèrera bientôt 10000 nœuds.
Nous avons aussi compris pendant l’évènement que le big data évolue à moindre cout : avec 10000€ et 10 machines de plus installées au sein d’un cluster, un département informatique continue d’avancer. On peut en conclure que la vraie innovation avec le big data est son côté scalable et évolutif !
L’exemple de la SNCF a été évoqué à plusieurs reprises. La société utilise le big data pour réguler le trafic et à terme, elle espère pouvoir modifier le plan de transport sur l’ensemble de la région francilienne. Concernant la maintenance, la SNCF a installé des capteurs sur ses trains pour pouvoir aisément contrôler les pièces principales sur ses machines.
Un autre exemple dans le domaine public, celui des forces de l’ordre, a aussi été évoqué. Les policiers souhaitent avoir la capacité d’analyser en temps réel la situation sur le terrain et le big data permettrait d’étudier les cambriolages par quartier pour protéger les citoyens.
Le Big Data Expo 2013 de Paris aura été un des évènements marquants de l’automne parisien pour les visiteurs et entreprises intéressés par le big data. Non seulement les exposants avaient répondu présent pour l’évènement, mais les salles où les sessions se déroulaient étaient combles, du début à la fin de journée.
Les tables rondes auront été l’occasion de débats entre conférenciers mais aussi de découvertes, concernant notamment les exemples cités et les cas concrets d’utilisation dans la vie quotidienne.
Au vu de la taille du marché du big data et de la croissance exponentielle des données, le salon ainsi que les tables rondes ont permis, il me semble, aux visiteurs de mieux comprendre les problématiques liées au big data et comment les résoudre.
Autres articles
-
Qlik lance Qlik Talend Cloud et fournit aux entreprises un socle fiable pour l’IA
-
Palladium Hotel Group tire profit de ses données grâce à Talend afin de proposer une expérience client améliorée
-
Qlik acquiert Talend et associe ses capacités inégalées d’intégration de données à celles de Talend en matière de transformation, de qualité et de gouvernance des données
-
Talend annonce une mise à jour majeure de sa plateforme Data Fabric
-
Qlik souhaite racheter Talend