Actualités : analyse de données, Business Intelligence, Data Science, Big Data


A quoi ressemblera le Big Data en 2016 ?


Rédigé par John Schroeder, MapR Technologies le 19 Décembre 2015

L’informatique d’entreprise vit actuellement son plus grand bouleversement depuis des décennies. Cette révolution s’effectue via la façon dont elles stockent, analysent et traitent les données ainsi via l’apparition de nouveaux systèmes de convergence et d’analyse des informations. Tous les secteurs d’activité sont concernés, des compagnies d’assurances qui calculent les primes en fonction du niveau de risque que représente chaque individu, aux prestataires de santé qui améliorent la personnalisation des traitements, en passant par les enseignes de la grande distribution qui ajustent leurs stocks de manière dynamique. Pour John Schroeder, qui prévoit une accélération des déploiements du Big Data en 2016, le marché va évoluer selon cinq tendances majeures.



Par John Schroeder, CEO et co-fondateur de MapR Technologies
La convergence, un modèle qui se généralise
Au cours des dernières décennies, les entreprises ont généralement séparé les systèmes opérationnels des systèmes analytiques pour éviter que les workloads analytiques ne perturbent les tâches de traitement opérationnel. Créée par Gartner début 2014, l’expression « Hybrid Transaction/Analytical Processing » (HTAP) décrit une nouvelle génération de plateformes hybrides capables de traiter à la fois des transactions en ligne (OLTP) et des données analytiques en ligne (OLAP), sans duplication des données. En 2016, nous allons assister à la généralisation des approches convergentes, les grandes entreprises combinant à leur avantage les workloads de production et les outils analytiques pour s’adapter rapidement aux nouvelles préférences de leurs clients, à la pression de la concurrence et à la conjoncture. Cette convergence va accélérer le cycle « données-action » pour les entreprises et éliminer le délai qui sépare la phase analytique et l’impact commercial.

L’approche centralisée prend le pas sur l’approche distribuée
Les cycles technologiques ont régulièrement oscillé entre la centralisation et la distribution des workloads. Dans un premier temps, les solutions de Big Data ont porté sur les « lacs de données » centralisés qui ont permis de réduire la duplication des données, de simplifier les tâches administratives et de prendre en charge diverses applications, parmi lesquelles l’analyse du client sur 360 degrés. En 2016, les grandes entreprises vont progressivement migrer vers le traitement distribué du Big Data afin de relever les défis liés à la gestion de différents terminaux, de multiples datacenters, de nombreux cas d’utilisation à travers le monde, et de l’évolution des règles de sécurité des données internationales (safe harbor). La croissance régulière de l’Internet des objets, des capteurs peu onéreux connectés à l’Internet des objets, des réseaux à haut débit et du traitement en extrémité de réseau (edge processing) contribuera au déploiement d’environnements de traitement distribués.

Le stockage, et notamment la technologie Flash, devient une ressource extrêmement abondante
La technologie de stockage logiciel de nouvelle génération permet de créer des solutions fonctionnant à différents niveaux de températures et qui allient rapidité et haute densité. Les mémoires flash représentent une technologie clé qui permettra de concevoir de nouveaux produits informatiques adaptés au grand public comme aux entreprises. La demande des particuliers contribuera à abaisser le coût de la technologie Flash, tandis que son déploiement dans les environnements de Big Data franchira un nouveau cap. En combinant stockage flash et stockage sur disque dur, la solution optimale permettra de prendre en charge des configurations à la fois rapides et haute densité. Cette nouvelle génération de stockage logiciel qui permet de créer des solutions « multi-températures » va proliférer en 2016. La disponibilité de solutions réunissant ces deux atouts évitera aux entreprises de choisir entre rapidité et haute densité.

Le retour aux fondamentaux s’impose
En 2016, le marché délaissera les logiciels derniers cri au profit de technologies éprouvées, génératrices de valeur business pour les entreprises. Si les nouvelles innovations « communautaires » vont continuer de susciter une vive attention, les entreprises apprécieront les logiciels qui auront un impact sur leur activité au lieu de se concentrer sur les technologies dédiées aux données brutes.

L’objectif qualité en première ligne
En matière de technologies dédiées au Big Data, les entreprises, les investisseurs et les départements des grandes entreprises vont se détourner des fournisseurs « volatiles » dont le business model a fréquemment évolué, pour se tourner vers des options plus sûres, incarnées par les fournisseurs qui conjuguent un business model éprouvé et des innovations technologiques capables d’améliorer leurs résultats et leurs performances opérationnelles.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store