DataFlux, éditeur leader de solutions d’intégration et de qualification de données, annonce aujourd’hui la disponibilité de la version 8.1 de son offre Data Quality Integration Platform, suite produit reconnue et primée dont l’objectif est de permettre aux entreprises d’analyser, d’améliorer et de contrôler rapidement la qualité de leurs données. Parmi les évolutions majeures au sein de cette nouvelle version, on trouvera notamment une technologie innovante qui permet de découvrir automatiquement les caractéristiques de chaque donnée. L’utilisateur s’appuie alors sur ces caractéristiques pour créer des règles qualité précises, qui seront appliquées lors des opérations de gestion de ces données.
En effet, les caractéristiques propres à certaines catégories de données, telles que les données produits, financières, d’inventaire, de patrimoine ou encore géographiques, peuvent varier d’un secteur d’activité à un autre, voire au sein même d’une entreprise ou d’un département. Les entreprises prenaient en compte ces différences via des développements impactant le code même de leur système, ou par des interventions manuelles sur les données, interventions souvent génératrices de nouvelles erreurs. Grâce à la capacité de DataFlux à identifier et à définir des champs sémantiques au sein d’une base de noms ou de descriptifs pré-décrits, les entreprises peuvent désormais déterminer plus rapidement le niveau de qualité des informations, et surtout, commencer à automatiser les règles nécessaires à la standardisation, à la normalisation et à la validation de ces informations.
Les entreprises ayant déjà testé la version 8.1 de la plateforme ont noté une réduction de 25 à 40% des délais nécessaires à l’amélioration de la qualité des données complexes, par exemple au niveau des données produits dans le secteur de la chimie. Une fois créées et optimisées grâce à l’environnement dfPower Studio, ces règles sont sauvegardées au sein de la base de connaissances DataFlux pour être exploitées aussi bien en mode batch qu’en temps réel. Cette approche permet de capitaliser sur ces règles au sein d’un référentiel centralisé regroupant les bonnes pratiques en matière de gestion de la qualité de la donnée.
Scott Gidley, co-fondateur et CTO de DataFlux, a déclaré à cette occasion : « Les entreprises ont souvent opté pour la plateforme DataFlux afin d’améliorer le traitement des données situées en dehors du périmètre classique des données clients. Avec la version 8.1 de notre plateforme, nous rendons ce processus encore plus simple, en proposant une identification automatique des particularités au sein des données, permettant de réduire le temps nécessaire à la valorisation des données d’entreprise. »
Parmi les autres nouveautés de la version 8.1, on peut citer :
· des performances optimisées et des améliorations au niveau de l’évolutivité, incluant le traitement en “multi-threading” sur le serveur DataFlux Integration Server
· des nouvelles fonctionnalités et des plug-ins dédiés à une meilleure intégration des services DataFlux au sein des processus d’entreprise. A noter par exemple, des fonctions d’emailing automatique et de connexion FTP pour permettre un suivi des tâches en cours, l’intégration LDAP pour la gestion des utilisateurs de la sécurité, ainsi que l’édition rapide d’adresses dans le cadre des processus d’enrichissement.
En effet, les caractéristiques propres à certaines catégories de données, telles que les données produits, financières, d’inventaire, de patrimoine ou encore géographiques, peuvent varier d’un secteur d’activité à un autre, voire au sein même d’une entreprise ou d’un département. Les entreprises prenaient en compte ces différences via des développements impactant le code même de leur système, ou par des interventions manuelles sur les données, interventions souvent génératrices de nouvelles erreurs. Grâce à la capacité de DataFlux à identifier et à définir des champs sémantiques au sein d’une base de noms ou de descriptifs pré-décrits, les entreprises peuvent désormais déterminer plus rapidement le niveau de qualité des informations, et surtout, commencer à automatiser les règles nécessaires à la standardisation, à la normalisation et à la validation de ces informations.
Les entreprises ayant déjà testé la version 8.1 de la plateforme ont noté une réduction de 25 à 40% des délais nécessaires à l’amélioration de la qualité des données complexes, par exemple au niveau des données produits dans le secteur de la chimie. Une fois créées et optimisées grâce à l’environnement dfPower Studio, ces règles sont sauvegardées au sein de la base de connaissances DataFlux pour être exploitées aussi bien en mode batch qu’en temps réel. Cette approche permet de capitaliser sur ces règles au sein d’un référentiel centralisé regroupant les bonnes pratiques en matière de gestion de la qualité de la donnée.
Scott Gidley, co-fondateur et CTO de DataFlux, a déclaré à cette occasion : « Les entreprises ont souvent opté pour la plateforme DataFlux afin d’améliorer le traitement des données situées en dehors du périmètre classique des données clients. Avec la version 8.1 de notre plateforme, nous rendons ce processus encore plus simple, en proposant une identification automatique des particularités au sein des données, permettant de réduire le temps nécessaire à la valorisation des données d’entreprise. »
Parmi les autres nouveautés de la version 8.1, on peut citer :
· des performances optimisées et des améliorations au niveau de l’évolutivité, incluant le traitement en “multi-threading” sur le serveur DataFlux Integration Server
· des nouvelles fonctionnalités et des plug-ins dédiés à une meilleure intégration des services DataFlux au sein des processus d’entreprise. A noter par exemple, des fonctions d’emailing automatique et de connexion FTP pour permettre un suivi des tâches en cours, l’intégration LDAP pour la gestion des utilisateurs de la sécurité, ainsi que l’édition rapide d’adresses dans le cadre des processus d’enrichissement.
Autres articles
-
Informatica rachète StrikeIron pour renforcer son offre de qualité des données
-
Progress s'appuie sur Tony Fisher, précédemment PDG de DataFlux et cadre dirigeant chez SAS, pour diriger l'activité Intégration de données d'entreprise
-
Feu Vert choisit la technologie de Master Data Management de SAS DataFlux pour valoriser ses données clients
-
DataFlux répond au "V" de Vitesse du Big Data
-
La dernière version de la plateforme de gestion des données de DataFlux simplifie le MDM et la gestion des données