On dénombre actuellement 15 milliards d’objets connectés dans le monde, et d’après une enquête menée par Cisco en 2013, il devrait atteindre la barre des 50 milliards en 2020. Le futur du « Big data » s’annonce donc Objets Connectés (ou IoT – Internet of Things). Ce qui est intéressant avec les objets connectés c’est la vitesse avec laquelle les données des capteurs sont générées. Les données sont produites en flux continu et se caractérisent principalement par un délai de péremption très rapide.
Selon les experts, elles perdent jusqu’à 60 % de leur valeur métier dans les secondes qui suivent leur création.
Aujourd'hui, beaucoup de cas d'usage et de modèles économiques ont pour source des données générées en streaming. Il s’agit par exemple du modèle de facturation par clic (Cost Per Click Billing model) exploité par les régies publicitaires, des applications opérationnelles d'entreprises, de l'analyse du parcours client d'un site web, de la recommandation en temps réel, de la détection de fraude, de la cybersécurité, du tracking des internautes, de l'omnicanal, etc.
À la différence des modèles traditionnels dans lesquels les données peuvent être historisées pour un traitement ultérieur, les données produites en streaming se périment très rapidement et exigent donc un traitement immédiat ou en temps réel pour être valorisées.
Nous sommes ravis de vous annoncer le pré-lancement du troisième ouvrage de notre projet : "Big Data & Streaming : le traitement streaming et temps réel des données en Big Data".
Cet ouvrage vous aidera à :
1- comprendre les concepts et notions essentiels pour aborder avec aisance la gestion des données produites en streaming.
2- vous aider à appréhender les architectures nécessaires pour ingérer efficacement les données générées en streaming.
3- vous aider à monter en compétence sur les technologies de l’écosystème Hadoop dédiées à l’ingestion et au traitement des données produites en streaming.
Cliquez sur le lien suivant pour recevoir un extrait sur l'ingestion streaming avec Apache Kafka : https://www.data-transitionnumerique.com/extrait-livre-big-data-streaming/
Selon les experts, elles perdent jusqu’à 60 % de leur valeur métier dans les secondes qui suivent leur création.
Aujourd'hui, beaucoup de cas d'usage et de modèles économiques ont pour source des données générées en streaming. Il s’agit par exemple du modèle de facturation par clic (Cost Per Click Billing model) exploité par les régies publicitaires, des applications opérationnelles d'entreprises, de l'analyse du parcours client d'un site web, de la recommandation en temps réel, de la détection de fraude, de la cybersécurité, du tracking des internautes, de l'omnicanal, etc.
À la différence des modèles traditionnels dans lesquels les données peuvent être historisées pour un traitement ultérieur, les données produites en streaming se périment très rapidement et exigent donc un traitement immédiat ou en temps réel pour être valorisées.
Nous sommes ravis de vous annoncer le pré-lancement du troisième ouvrage de notre projet : "Big Data & Streaming : le traitement streaming et temps réel des données en Big Data".
Cet ouvrage vous aidera à :
1- comprendre les concepts et notions essentiels pour aborder avec aisance la gestion des données produites en streaming.
2- vous aider à appréhender les architectures nécessaires pour ingérer efficacement les données générées en streaming.
3- vous aider à monter en compétence sur les technologies de l’écosystème Hadoop dédiées à l’ingestion et au traitement des données produites en streaming.
Cliquez sur le lien suivant pour recevoir un extrait sur l'ingestion streaming avec Apache Kafka : https://www.data-transitionnumerique.com/extrait-livre-big-data-streaming/