Par John Schroeder, CEO et co-fondateur de MapR Technologies
La convergence, un modèle qui se généralise
Au cours des dernières décennies, les entreprises ont généralement séparé les systèmes opérationnels des systèmes analytiques pour éviter que les workloads analytiques ne perturbent les tâches de traitement opérationnel. Créée par Gartner début 2014, l’expression « Hybrid Transaction/Analytical Processing » (HTAP) décrit une nouvelle génération de plateformes hybrides capables de traiter à la fois des transactions en ligne (OLTP) et des données analytiques en ligne (OLAP), sans duplication des données. En 2016, nous allons assister à la généralisation des approches convergentes, les grandes entreprises combinant à leur avantage les workloads de production et les outils analytiques pour s’adapter rapidement aux nouvelles préférences de leurs clients, à la pression de la concurrence et à la conjoncture. Cette convergence va accélérer le cycle « données-action » pour les entreprises et éliminer le délai qui sépare la phase analytique et l’impact commercial.
L’approche centralisée prend le pas sur l’approche distribuée
Les cycles technologiques ont régulièrement oscillé entre la centralisation et la distribution des workloads. Dans un premier temps, les solutions de Big Data ont porté sur les « lacs de données » centralisés qui ont permis de réduire la duplication des données, de simplifier les tâches administratives et de prendre en charge diverses applications, parmi lesquelles l’analyse du client sur 360 degrés. En 2016, les grandes entreprises vont progressivement migrer vers le traitement distribué du Big Data afin de relever les défis liés à la gestion de différents terminaux, de multiples datacenters, de nombreux cas d’utilisation à travers le monde, et de l’évolution des règles de sécurité des données internationales (safe harbor). La croissance régulière de l’Internet des objets, des capteurs peu onéreux connectés à l’Internet des objets, des réseaux à haut débit et du traitement en extrémité de réseau (edge processing) contribuera au déploiement d’environnements de traitement distribués.
Le stockage, et notamment la technologie Flash, devient une ressource extrêmement abondante
La technologie de stockage logiciel de nouvelle génération permet de créer des solutions fonctionnant à différents niveaux de températures et qui allient rapidité et haute densité. Les mémoires flash représentent une technologie clé qui permettra de concevoir de nouveaux produits informatiques adaptés au grand public comme aux entreprises. La demande des particuliers contribuera à abaisser le coût de la technologie Flash, tandis que son déploiement dans les environnements de Big Data franchira un nouveau cap. En combinant stockage flash et stockage sur disque dur, la solution optimale permettra de prendre en charge des configurations à la fois rapides et haute densité. Cette nouvelle génération de stockage logiciel qui permet de créer des solutions « multi-températures » va proliférer en 2016. La disponibilité de solutions réunissant ces deux atouts évitera aux entreprises de choisir entre rapidité et haute densité.
Le retour aux fondamentaux s’impose
En 2016, le marché délaissera les logiciels derniers cri au profit de technologies éprouvées, génératrices de valeur business pour les entreprises. Si les nouvelles innovations « communautaires » vont continuer de susciter une vive attention, les entreprises apprécieront les logiciels qui auront un impact sur leur activité au lieu de se concentrer sur les technologies dédiées aux données brutes.
L’objectif qualité en première ligne
En matière de technologies dédiées au Big Data, les entreprises, les investisseurs et les départements des grandes entreprises vont se détourner des fournisseurs « volatiles » dont le business model a fréquemment évolué, pour se tourner vers des options plus sûres, incarnées par les fournisseurs qui conjuguent un business model éprouvé et des innovations technologiques capables d’améliorer leurs résultats et leurs performances opérationnelles.
La convergence, un modèle qui se généralise
Au cours des dernières décennies, les entreprises ont généralement séparé les systèmes opérationnels des systèmes analytiques pour éviter que les workloads analytiques ne perturbent les tâches de traitement opérationnel. Créée par Gartner début 2014, l’expression « Hybrid Transaction/Analytical Processing » (HTAP) décrit une nouvelle génération de plateformes hybrides capables de traiter à la fois des transactions en ligne (OLTP) et des données analytiques en ligne (OLAP), sans duplication des données. En 2016, nous allons assister à la généralisation des approches convergentes, les grandes entreprises combinant à leur avantage les workloads de production et les outils analytiques pour s’adapter rapidement aux nouvelles préférences de leurs clients, à la pression de la concurrence et à la conjoncture. Cette convergence va accélérer le cycle « données-action » pour les entreprises et éliminer le délai qui sépare la phase analytique et l’impact commercial.
L’approche centralisée prend le pas sur l’approche distribuée
Les cycles technologiques ont régulièrement oscillé entre la centralisation et la distribution des workloads. Dans un premier temps, les solutions de Big Data ont porté sur les « lacs de données » centralisés qui ont permis de réduire la duplication des données, de simplifier les tâches administratives et de prendre en charge diverses applications, parmi lesquelles l’analyse du client sur 360 degrés. En 2016, les grandes entreprises vont progressivement migrer vers le traitement distribué du Big Data afin de relever les défis liés à la gestion de différents terminaux, de multiples datacenters, de nombreux cas d’utilisation à travers le monde, et de l’évolution des règles de sécurité des données internationales (safe harbor). La croissance régulière de l’Internet des objets, des capteurs peu onéreux connectés à l’Internet des objets, des réseaux à haut débit et du traitement en extrémité de réseau (edge processing) contribuera au déploiement d’environnements de traitement distribués.
Le stockage, et notamment la technologie Flash, devient une ressource extrêmement abondante
La technologie de stockage logiciel de nouvelle génération permet de créer des solutions fonctionnant à différents niveaux de températures et qui allient rapidité et haute densité. Les mémoires flash représentent une technologie clé qui permettra de concevoir de nouveaux produits informatiques adaptés au grand public comme aux entreprises. La demande des particuliers contribuera à abaisser le coût de la technologie Flash, tandis que son déploiement dans les environnements de Big Data franchira un nouveau cap. En combinant stockage flash et stockage sur disque dur, la solution optimale permettra de prendre en charge des configurations à la fois rapides et haute densité. Cette nouvelle génération de stockage logiciel qui permet de créer des solutions « multi-températures » va proliférer en 2016. La disponibilité de solutions réunissant ces deux atouts évitera aux entreprises de choisir entre rapidité et haute densité.
Le retour aux fondamentaux s’impose
En 2016, le marché délaissera les logiciels derniers cri au profit de technologies éprouvées, génératrices de valeur business pour les entreprises. Si les nouvelles innovations « communautaires » vont continuer de susciter une vive attention, les entreprises apprécieront les logiciels qui auront un impact sur leur activité au lieu de se concentrer sur les technologies dédiées aux données brutes.
L’objectif qualité en première ligne
En matière de technologies dédiées au Big Data, les entreprises, les investisseurs et les départements des grandes entreprises vont se détourner des fournisseurs « volatiles » dont le business model a fréquemment évolué, pour se tourner vers des options plus sûres, incarnées par les fournisseurs qui conjuguent un business model éprouvé et des innovations technologiques capables d’améliorer leurs résultats et leurs performances opérationnelles.
Autres articles
-
MapR lance le Programme Clarity à l’intention des clients de Cloudera et de Hortonworks avec une plateforme actualisée et un service d'évaluation des données gratuity
-
Dynamisé par sa croissance continue dans la zone EMEA, MapR étend son territoire commercial et renforce son équipe de direction dans la region
-
DataOps : une nouvelle façon de créer, gérer, déployer et superviser les applications à usage intensif de données
-
MapR dévoile une mise à jour majeure de sa plate-forme de données pour l’IA et l’Analytique
-
Retour d’expérience : Ingenico choisit MapR pour consolider ses bases de données et en assurer la sécurité