1 – Le retour en vogue de l’intelligence artificielle
Dans les années 60, Ray Solomonoff a jeté les premières bases d’une théorie mathématique de l’intelligence artificielle. En 1980, la première conférence nationale de l’AAAI (American Association for Artificial Intelligence) s’est tenue à Stanford, marquant la mise en application des théories dans des logiciels. Un temps « oubliée », l’intelligence artificielle est désormais revenue au centre des débats, couvrant des concepts tels que les machines intelligentes, l’apprentissage automatique, les réseaux neuronaux et l’informatique cognitive. Quelles sont les raisons de ce retour en vogue ? Trois viennent à l’esprit : vitesse, variété et volume. Les plateformes capables de satisfaire ces trois critères avec des modèles de traitement modernes et traditionnels qui s’adaptent horizontalement sont 10 à 20 fois plus économiques que leurs homologues classiques. Google a par exemple prouvé l’efficacité des algorithmes simples, exécutés fréquemment sur de vastes ensembles de données, par rapport à d’autres méthodes se limitant à des ensembles restreints. En 2017, nous commencerons à constater tout l’intérêt de l’application de l’intelligence artificielle à des tâches répétitives et volumineuses, où la cohérence est plus efficace qu’une supervision humaine intuitive, sujette à erreurs et coûteuse.
2 – Le Big Data pour la gouvernance ou pour un avantage concurrentiel
En 2017, le débat entre gouvernance et valeur des données occupera le devant de la scène. Si les entreprises disposent aujourd’hui de mines d’informations sur leurs clients et partenaires, celles qui se démarqueront seront celles qui gèreront leurs données en fonction de la règlementation, ou non, des applications. Les données relatives aux applications réglementées nécessitent une gouvernance portant sur leur qualité et leur traçabilité de sorte qu’un organisme réglementaire puisse en suivre toutes les transformations et remonter jusqu’à leur source. Cette obligation constitue toutefois un frein pour des applications non réglementées telles que l’analyse du client à 360 degrés ou la présentation d’offres, dans lesquelles un degré accru de cardinalité, un traitement en temps réel ainsi qu’une combinaison de données structurées et non structurées produisent des résultats plus efficaces.
3 – Les applications orientées business permettront d’éviter que les lacs de données ne deviennent des marécages
En 2017, les entreprises passeront d’un « attentisme » vis-à-vis des data lakes à une approche orientée métier. Aujourd’hui, des capacités analytiques et opérationnelles sont nécessaires pour s’adresser aux clients, traiter leurs demandes et s’interfacer en temps réel avec des équipements au niveau individuel. Par exemple, tout site de e-commerce doit pouvoir fournir des recommandations personnalisées et permettre de connaître les prix en temps réel. Les prestataires de santé doivent traiter les demandes de remboursement valables et bloquer celles qui sont frauduleuses, en combinant des outils analytiques avec les systèmes opérationnels. Les groupes médias personnalisent désormais les contenus diffusés par l’intermédiaire des box Internet. Les constructeurs automobiles et les sociétés de covoiturage interagissent à grande échelle avec les véhicules et les conducteurs. Toutes ces applications requièrent une plateforme souple, à même d’assurer le traitement analytique et opérationnel pour accroître la valeur tirée d’applications supplémentaires allant des analyses de back-office aux activités de front-office. En 2017, les entreprises iront résolument au-delà d’une approche se bornant à « poser des questions » vers une architecture destinée à dégager de la valeur à court et à long terme.
4 – La souplesse des données fera la différence
Le développement des logiciels est devenu souple, assurant une production opérationnelle en continu. En 2017, les modèles de traitement et d’analyse vont évoluer pour offrir un niveau d’agilité comparable à mesure que les entreprises prennent conscience que la souplesse des données – la capacité de comprendre celles-ci en contexte et de les exploiter – est une source d’avantage concurrentiel, au-delà d’un vaste data lake. L’émergence de modèles de traitement souple va permettre l’exploitation des mêmes instances de données pour l’analytique en mode batch, l’analytique interactive, la messagerie globale, les bases de données et les modèles à base de fichier. Des modèles analytiques plus agiles seront également possibles dès lors qu’une même instance de données sera compatible avec un éventail élargi d’outils. Il en résultera, au final, une plateforme de développement souple et des applications supportant la gamme la plus large de modèles de traitement et d’analyse.
5 – La blockchain va transformer certaines applications de services financiers
La blockchain est une technologie globale distribuée qui révolutionne le stockage des données et le traitement des transactions. Elle opère sur des ordinateurs répartis à travers le monde, où les « chaînes de blocs » sont visibles de tous. Les transactions sont stockées dans des blocs dont chacun fait référence au précédent. Ces blocs sont horodatés et conservent les données sous une forme inaltérable. Il est ainsi impossible de pirater la blockchain puisque tout le monde en voit la totalité. Son efficacité est donc évidente pour les consommateurs. Par exemple, les clients n’auront plus à attendre l’exécution de leur transaction ni à se soucier des conséquences d’une fuite dans un grand datacenter. Pour les entreprises, la blockchain est synonyme d’économies et d’avantage concurrentiel. En 2017 apparaîtront certaines applications révolutionnaires dans les services financiers, ayant de vastes retombées sur le mode de stockage des données et de traitement des transactions.
6 – L’apprentissage automatique va maximiser l’impact des microservices
Cette année, nous allons voir s’intensifier l’intégration de l’apprentissage automatique et des microservices. Jusqu’à présent, les déploiements de microservices étaient axés sur des services légers et ceux incorporant l’apprentissage automatique se limitaient généralement à des intégrations de type « Fast Data », appliquées à des flux étroits de données en streaming. En 2017, nous verrons le développement s’orienter vers des applications « stateful » (à persistance d'état) qui exploitent le Big Data ainsi que l’incorporation de méthodes d’apprentissage automatique s’appuyant sur des masses de données historiques afin de mieux appréhender le contexte des nouveaux flux de données reçues.
« Nos prévisions sont fortement influencées par nos clients les plus performants qui ont connu une belle croissance grâce à l’intégration de l’analytique dans leurs cas d’usages opérationnels » explique J. Schroeder.
« L’utilisation qu’ont nos clients de la Converged Data Plateform de MapR apporte de la souplesse aux devOps, puisqu’ils ont à leur disposition un large panel de modèles de traitement des données allant d’Hadoop à Spark, en passant par le SQL, le NoSQL, les fichiers et les flux de messages (streaming) – tout ce dont ils ont besoin pour leurs cas d’usages actuels ou futurs, que ce soit dans des environnements de Cloud privé, public ou hybride ».
Dans les années 60, Ray Solomonoff a jeté les premières bases d’une théorie mathématique de l’intelligence artificielle. En 1980, la première conférence nationale de l’AAAI (American Association for Artificial Intelligence) s’est tenue à Stanford, marquant la mise en application des théories dans des logiciels. Un temps « oubliée », l’intelligence artificielle est désormais revenue au centre des débats, couvrant des concepts tels que les machines intelligentes, l’apprentissage automatique, les réseaux neuronaux et l’informatique cognitive. Quelles sont les raisons de ce retour en vogue ? Trois viennent à l’esprit : vitesse, variété et volume. Les plateformes capables de satisfaire ces trois critères avec des modèles de traitement modernes et traditionnels qui s’adaptent horizontalement sont 10 à 20 fois plus économiques que leurs homologues classiques. Google a par exemple prouvé l’efficacité des algorithmes simples, exécutés fréquemment sur de vastes ensembles de données, par rapport à d’autres méthodes se limitant à des ensembles restreints. En 2017, nous commencerons à constater tout l’intérêt de l’application de l’intelligence artificielle à des tâches répétitives et volumineuses, où la cohérence est plus efficace qu’une supervision humaine intuitive, sujette à erreurs et coûteuse.
2 – Le Big Data pour la gouvernance ou pour un avantage concurrentiel
En 2017, le débat entre gouvernance et valeur des données occupera le devant de la scène. Si les entreprises disposent aujourd’hui de mines d’informations sur leurs clients et partenaires, celles qui se démarqueront seront celles qui gèreront leurs données en fonction de la règlementation, ou non, des applications. Les données relatives aux applications réglementées nécessitent une gouvernance portant sur leur qualité et leur traçabilité de sorte qu’un organisme réglementaire puisse en suivre toutes les transformations et remonter jusqu’à leur source. Cette obligation constitue toutefois un frein pour des applications non réglementées telles que l’analyse du client à 360 degrés ou la présentation d’offres, dans lesquelles un degré accru de cardinalité, un traitement en temps réel ainsi qu’une combinaison de données structurées et non structurées produisent des résultats plus efficaces.
3 – Les applications orientées business permettront d’éviter que les lacs de données ne deviennent des marécages
En 2017, les entreprises passeront d’un « attentisme » vis-à-vis des data lakes à une approche orientée métier. Aujourd’hui, des capacités analytiques et opérationnelles sont nécessaires pour s’adresser aux clients, traiter leurs demandes et s’interfacer en temps réel avec des équipements au niveau individuel. Par exemple, tout site de e-commerce doit pouvoir fournir des recommandations personnalisées et permettre de connaître les prix en temps réel. Les prestataires de santé doivent traiter les demandes de remboursement valables et bloquer celles qui sont frauduleuses, en combinant des outils analytiques avec les systèmes opérationnels. Les groupes médias personnalisent désormais les contenus diffusés par l’intermédiaire des box Internet. Les constructeurs automobiles et les sociétés de covoiturage interagissent à grande échelle avec les véhicules et les conducteurs. Toutes ces applications requièrent une plateforme souple, à même d’assurer le traitement analytique et opérationnel pour accroître la valeur tirée d’applications supplémentaires allant des analyses de back-office aux activités de front-office. En 2017, les entreprises iront résolument au-delà d’une approche se bornant à « poser des questions » vers une architecture destinée à dégager de la valeur à court et à long terme.
4 – La souplesse des données fera la différence
Le développement des logiciels est devenu souple, assurant une production opérationnelle en continu. En 2017, les modèles de traitement et d’analyse vont évoluer pour offrir un niveau d’agilité comparable à mesure que les entreprises prennent conscience que la souplesse des données – la capacité de comprendre celles-ci en contexte et de les exploiter – est une source d’avantage concurrentiel, au-delà d’un vaste data lake. L’émergence de modèles de traitement souple va permettre l’exploitation des mêmes instances de données pour l’analytique en mode batch, l’analytique interactive, la messagerie globale, les bases de données et les modèles à base de fichier. Des modèles analytiques plus agiles seront également possibles dès lors qu’une même instance de données sera compatible avec un éventail élargi d’outils. Il en résultera, au final, une plateforme de développement souple et des applications supportant la gamme la plus large de modèles de traitement et d’analyse.
5 – La blockchain va transformer certaines applications de services financiers
La blockchain est une technologie globale distribuée qui révolutionne le stockage des données et le traitement des transactions. Elle opère sur des ordinateurs répartis à travers le monde, où les « chaînes de blocs » sont visibles de tous. Les transactions sont stockées dans des blocs dont chacun fait référence au précédent. Ces blocs sont horodatés et conservent les données sous une forme inaltérable. Il est ainsi impossible de pirater la blockchain puisque tout le monde en voit la totalité. Son efficacité est donc évidente pour les consommateurs. Par exemple, les clients n’auront plus à attendre l’exécution de leur transaction ni à se soucier des conséquences d’une fuite dans un grand datacenter. Pour les entreprises, la blockchain est synonyme d’économies et d’avantage concurrentiel. En 2017 apparaîtront certaines applications révolutionnaires dans les services financiers, ayant de vastes retombées sur le mode de stockage des données et de traitement des transactions.
6 – L’apprentissage automatique va maximiser l’impact des microservices
Cette année, nous allons voir s’intensifier l’intégration de l’apprentissage automatique et des microservices. Jusqu’à présent, les déploiements de microservices étaient axés sur des services légers et ceux incorporant l’apprentissage automatique se limitaient généralement à des intégrations de type « Fast Data », appliquées à des flux étroits de données en streaming. En 2017, nous verrons le développement s’orienter vers des applications « stateful » (à persistance d'état) qui exploitent le Big Data ainsi que l’incorporation de méthodes d’apprentissage automatique s’appuyant sur des masses de données historiques afin de mieux appréhender le contexte des nouveaux flux de données reçues.
« Nos prévisions sont fortement influencées par nos clients les plus performants qui ont connu une belle croissance grâce à l’intégration de l’analytique dans leurs cas d’usages opérationnels » explique J. Schroeder.
« L’utilisation qu’ont nos clients de la Converged Data Plateform de MapR apporte de la souplesse aux devOps, puisqu’ils ont à leur disposition un large panel de modèles de traitement des données allant d’Hadoop à Spark, en passant par le SQL, le NoSQL, les fichiers et les flux de messages (streaming) – tout ce dont ils ont besoin pour leurs cas d’usages actuels ou futurs, que ce soit dans des environnements de Cloud privé, public ou hybride ».
Autres articles
-
MapR lance le Programme Clarity à l’intention des clients de Cloudera et de Hortonworks avec une plateforme actualisée et un service d'évaluation des données gratuity
-
Dynamisé par sa croissance continue dans la zone EMEA, MapR étend son territoire commercial et renforce son équipe de direction dans la region
-
DataOps : une nouvelle façon de créer, gérer, déployer et superviser les applications à usage intensif de données
-
MapR dévoile une mise à jour majeure de sa plate-forme de données pour l’IA et l’Analytique
-
Retour d’expérience : Ingenico choisit MapR pour consolider ses bases de données et en assurer la sécurité