En offrant des services d’intégration, d’abstraction et de gestion des données en temps réel, la virtualisation des données offre des performances inégalées, un accès unifié à un large éventail de sources de données (d’entreprise, big data, services d’APIs, cloud et non structurées), ainsi que les services de données et la gouvernance les plus agiles.
En 2019, le recours à la virtualisation des données deviendra un différenciateur permettant l'accélération de la transformation numérique, ce qui permettra aux entreprises l’ayant adoptée de rester devant leurs concurrents.
1. L’intégration du Machine Learning et de la virtualisation des données va gagner en importance pour les entreprises
L’analytique s’appuyant sur l’intelligence artificielle (IA) va continuer de gagner en importance cette année à mesure que de nouveaux outils permettant d’appliquer les techniques d’IA à tous les types d’applications apparaitront. Cependant, la qualité des résultats produits par ces techniques restera subordonnée à celle des données qu’elles traitent. Alors que les data scientists consacrent actuellement plus de 80 % de leur temps à la découverte, l’intégration et la préparation des données, la virtualisation des données deviendra en 2019 toujours plus essentielle pour faire ressortir celles qui sont pertinentes pour l’entreprise, dans le format le mieux adapté à chaque application. Cela améliorera considérablement la productivité des data scientists, raison pour laquelle les technologies de virtualisation des données sont appelées à jouer un rôle phare dans l’année à venir. Il s’agit en définitive d’un gain de temps colossal qui impactera considérablement la compétitivité les entreprises.
2. Nous verrons une croissance de l’utilisation en libre-service des catalogues de données interactifs s’appuyant sur la virtualisation des données
En 2019, au lieu de consulter une multitude de sources hétérogènes constituant autant de silos, les entreprises auront de plus en plus recours à des catalogues de données afin d’identifier les plus pertinentes pour leurs analyses. Avec accès unifié aux données préalablement virtualisées, ces catalogues fournissent des informations actualisées ainsi qu’un moyen simple, sécurisé et maîtrisé d’accéder à toutes les données qu’ils contiennent. Les entreprises et leurs équipes informatiques ont en effet besoin d’un moyen simple pour découvrir, organiser et décrire leurs données. Les catalogues de données s’appuyant sur la virtualisation pourraient apporter une solution aux entreprises dans leur utilisation des données et leur appréhension du big data.
3. Migration vers le cloud : l’architecture hybride distribuée va devenir la norme
Tandis que la migration des données dans le cloud s’accélère, le centre de gravité va se déplacer. La tendance sera à des plateformes répartissant les données entre des sources situées aussi bien dans le cloud que sur site. De même, l’intégration des données va évoluer vers une architecture distribuée sur des sites multiples. À la différence des technologies classiques d’intégration, la virtualisation a été conçue dès le départ pour offrir une transparence sur la localisation des données et leur abstraction ainsi que pour assurer une sécurité intégrée sur plusieurs sites. Tout cela en en fait une solution idéale pour les entreprises, et qui jouera par conséquent un rôle de plus en plus important dans les architectures hybrides en 2019.
4. La data virtualisation améliorera grandement les capacités des plateformes API
Les interfaces de programmation applicatives (API) sont les points de connexion entre applications et permettent le développement de nouveaux services, leurs extensions ainsi que l’interconnexion entre systèmes. Prises dans leur ensemble, les API représentent un écosystème florissant offert aux développeurs qui ne montre aucun signe de ralentissement. En intégrant la virtualisation des données à leur stratégie API, les entreprises, quelle que soit leur industrie ou leur taille, pourront faciliter et accélérer l’intégration de données, mais aussi exposer leurs données sous forme de services API beaucoup plus rapidement. La virtualisation des données permet en effet la création d’API basées sur la quasi-totalité des sources de donnés, et ce en quelques clics : au lieu d’élaborer une application monolithique autour d'une source de données complexe, elle permettra donc aux organisations de construire une nouvelle API unitaire simple et adaptée aux applications consommatrices.
En 2019, le recours à la virtualisation des données deviendra un différenciateur permettant l'accélération de la transformation numérique, ce qui permettra aux entreprises l’ayant adoptée de rester devant leurs concurrents.
1. L’intégration du Machine Learning et de la virtualisation des données va gagner en importance pour les entreprises
L’analytique s’appuyant sur l’intelligence artificielle (IA) va continuer de gagner en importance cette année à mesure que de nouveaux outils permettant d’appliquer les techniques d’IA à tous les types d’applications apparaitront. Cependant, la qualité des résultats produits par ces techniques restera subordonnée à celle des données qu’elles traitent. Alors que les data scientists consacrent actuellement plus de 80 % de leur temps à la découverte, l’intégration et la préparation des données, la virtualisation des données deviendra en 2019 toujours plus essentielle pour faire ressortir celles qui sont pertinentes pour l’entreprise, dans le format le mieux adapté à chaque application. Cela améliorera considérablement la productivité des data scientists, raison pour laquelle les technologies de virtualisation des données sont appelées à jouer un rôle phare dans l’année à venir. Il s’agit en définitive d’un gain de temps colossal qui impactera considérablement la compétitivité les entreprises.
2. Nous verrons une croissance de l’utilisation en libre-service des catalogues de données interactifs s’appuyant sur la virtualisation des données
En 2019, au lieu de consulter une multitude de sources hétérogènes constituant autant de silos, les entreprises auront de plus en plus recours à des catalogues de données afin d’identifier les plus pertinentes pour leurs analyses. Avec accès unifié aux données préalablement virtualisées, ces catalogues fournissent des informations actualisées ainsi qu’un moyen simple, sécurisé et maîtrisé d’accéder à toutes les données qu’ils contiennent. Les entreprises et leurs équipes informatiques ont en effet besoin d’un moyen simple pour découvrir, organiser et décrire leurs données. Les catalogues de données s’appuyant sur la virtualisation pourraient apporter une solution aux entreprises dans leur utilisation des données et leur appréhension du big data.
3. Migration vers le cloud : l’architecture hybride distribuée va devenir la norme
Tandis que la migration des données dans le cloud s’accélère, le centre de gravité va se déplacer. La tendance sera à des plateformes répartissant les données entre des sources situées aussi bien dans le cloud que sur site. De même, l’intégration des données va évoluer vers une architecture distribuée sur des sites multiples. À la différence des technologies classiques d’intégration, la virtualisation a été conçue dès le départ pour offrir une transparence sur la localisation des données et leur abstraction ainsi que pour assurer une sécurité intégrée sur plusieurs sites. Tout cela en en fait une solution idéale pour les entreprises, et qui jouera par conséquent un rôle de plus en plus important dans les architectures hybrides en 2019.
4. La data virtualisation améliorera grandement les capacités des plateformes API
Les interfaces de programmation applicatives (API) sont les points de connexion entre applications et permettent le développement de nouveaux services, leurs extensions ainsi que l’interconnexion entre systèmes. Prises dans leur ensemble, les API représentent un écosystème florissant offert aux développeurs qui ne montre aucun signe de ralentissement. En intégrant la virtualisation des données à leur stratégie API, les entreprises, quelle que soit leur industrie ou leur taille, pourront faciliter et accélérer l’intégration de données, mais aussi exposer leurs données sous forme de services API beaucoup plus rapidement. La virtualisation des données permet en effet la création d’API basées sur la quasi-totalité des sources de donnés, et ce en quelques clics : au lieu d’élaborer une application monolithique autour d'une source de données complexe, elle permettra donc aux organisations de construire une nouvelle API unitaire simple et adaptée aux applications consommatrices.
Autres articles
-
Denodo lance Agora, son service Cloud, qui réinvente la gestion des données pour les entreprises du monde entier
-
Pour une meilleure compréhension des enjeux de l'IA générative et de la démocratisation des données
-
La nouvelle version de Denodo Platform 9.0 facilite une livraison intelligente des données avec des requêtes en langage naturel grâce à l’IA, des fonctionnalités de données prêtes pour l'IA et des fonctionnalités de préparation des données rationalis
-
Les entreprises qui maîtrisent les normes ESG sont celles qui savent gérer leurs données
-
Denodo s'associe à Google Cloud pour stimuler l'innovation d'entreprise grâce à la virtualisation des données et l'intégration de l'IA générative