Parmi les 3 (ou plus) caractéristiques des données volumineuses, celle sur laquelle la plupart des éditeurs ne s'étend pas, c'est la Vitesse. La majorité des systèmes décisionnels n'a pas été conçue pour gérer les données arrivant en temps réel; partant plutôt du postulat qu'en matière d'aide à la décision, avoir "le nez dans le guidon" n'était pas forcément bon conseiller. Et même si les bases de données analytiques en mémoire se développent, le goulet d'étranglement est plutôt en amont, dans les procédures d'alimentation. N'intégrer que des données validées, utiles… parait souvent incompatible avec le temps réel et il suffit de visualiser un flux de données sociales pour comprendre que toute attente est inutile, le flux est souvent mis à jour plus vite que vous ne pouvez le traiter.
DataFlux, filiale de SAS spécialisée dans la qualité des données, investigue dans cette direction. Un nouvel outil, présenté mi-octobre, aspire les données au moment de leur création, qu'elles soient structurées ou non-structurées. On parle de CEP (Complex Event Processing), et le produit annoncé par DataFlux est SAS DataFlux Event Stream Processing Engine; il combine des données internes et externes, sous forme de flux, et sera principalement destiné au secteur financier pour l'analyse de risques. Il sera d'ailleurs intégré dans la suite SAS High-Performance Risk.
DataFlux, filiale de SAS spécialisée dans la qualité des données, investigue dans cette direction. Un nouvel outil, présenté mi-octobre, aspire les données au moment de leur création, qu'elles soient structurées ou non-structurées. On parle de CEP (Complex Event Processing), et le produit annoncé par DataFlux est SAS DataFlux Event Stream Processing Engine; il combine des données internes et externes, sous forme de flux, et sera principalement destiné au secteur financier pour l'analyse de risques. Il sera d'ailleurs intégré dans la suite SAS High-Performance Risk.