Rémi Forest , Senior Manager - Solutions Engineering chez Confluent
Les services financiers utilisent de longue date les données afin de détecter les fraudes et autres anomalies et avec les flux de données qui explosent à travers les applications mobiles, les réseaux sociaux et le cloud, le traitement en temps réel est devenu un défi majeur pour les services financiers.
Le système nerveux central de l’automatisation
Les systèmes de détection d'intrusion doivent gérer un grand nombre d'événements, ce qui rend difficile l'analyse sans pré-filtrage. Les infrastructures modernes différencient les canaux de mise à jour et de consultation des données et les coûts des systèmes de type mainframe utilisés par les banques augmentent avec la quantité de travail demandée, d'où l'importance de l'optimisation de ces infrastructures.
Le streaming de données prend donc tout son sens dans ces environnements car il agit comme un filtre géant sur ces millions de transactions par minute, voire par seconde.
Au-delà de la détection de la fraude, il y a également la cybersécurité et la gestion des attaques. Même schéma : il existe des systèmes qui font de l'observabilité et de la détection d’intrusions depuis très longtemps. Mais si l’on commence à injecter dans ces systèmes tous les événements, il devient impossible de pouvoir faire de la détection intelligente sur un flux de données aussi important.
Le data streaming filtre en amont en utilisant des règles de pré-filtrage pour n’envoyer vers ces systèmes experts que les informations qui sont potentiellement un risque. Là où avant on leur demandait de tout redouter, aujourd’hui cela permet de diminuer par 10 ou par 100 le volume d'informations qu'on envoie vers ces systèmes, et comme souvent leur coût est également proportionnel à la quantité d’informations qui est analysée, les économies sont très importantes.
Le streaming de données devient ainsi le système nerveux central où, d'un côté des producteurs vont produire des data en fonction de leur activité et, à l'autre bout de la chaîne, des consommateurs de données vont venir s'abonner à ce flux d’informations, et vont automatiser la lecture, le traitement et les actions qui en résultent. Élément très intéressant dans cette architecture, c'est que l’on passe d'un système point à point à du multipoint, ce qui permet aussi de développer des nouveaux cas d'usage.
Sans contextualisation, point d’analyse et nulle innovation
Dans la notion d'analyse de flux de données, l’important est qu’une donnée isolée ne veut rien dire. Par exemple, analyser une température nécessite plusieurs prises pour comprendre si on a une tendance à la hausse ou une stabilité. Si la série de données est incohérente, on déduira immédiatement un problème.
Il est essentiel d'être capable de traiter le contexte et en particulier dans les services financiers avec toutes les contraintes réglementaires et légales. C’est le mécanisme même de ce qu'on appelle le stream processing, avec cette capacité à traiter des données au fil de l'eau. Ceci implique d'avoir la visibilité pour pouvoir analyser un comportement sur une certaine durée. Loin des filtres d’analyse hyper binaires (oui ou non), les services financiers travaillent sur des données qui doivent être contextualisées en temps réel en fonction des nouvelles données recueillies, ce qui est très compliquée à traiter par un système de programmation traditionnel.
Une révolution des process et usages financiers
Les services financiers sont très représentatifs de l'évolution de l’informatique, de la façon dont on fait les applications aujourd'hui, voire même dont on les utilise. Historiquement, c'était plutôt un outil pour aider les utilisateurs dans leurs tâches. Ils travaillaient avec des papiers et des crayons et on leur a donné des ordinateurs. Ils ont utilisé des tableurs Excel mais les process métiers restaient plus ou moins les mêmes. Ainsi l’informatique a permis d’aller un petit peu plus vite, mais globalement c'était juste un peu plus facile.
Ce que l'on voit arriver aujourd'hui, et ce qui se fait de plus en plus, ce sont les process qui ne sont plus suivis par des humains, mais par des algorithmes. Et cette communication entre les algorithmes, est automatisée également avec des technologies comme le streaming de données. C'est ce qui permet, quand on fait une demande de prêt, d'avoir une réponse dans la minute, parce que le dossier va être envoyé vers un premier algorithme qui va faire une analyse, un premier filtre d'éligibilité, un autre système va faire du scoring, ensuite un autre système va traiter l’approbation par rapport à différents critères, et va générer la réponse et les conditions proposées.
Il s’agit d’une philosophie de micro-services, c'est-à-dire le fait d'avoir des tâches qui sont séparées et qui s'alimentent les unes les autres de façon complètement automatique. Le SI est maintenant devenu l'acteur principal sur beaucoup de chaînes de décision.
L’écueil de la relation client
Les services financiers utilisant de plus en plus l'IA pour améliorer la performance des processus donc logiquement le data streaming, couplé à des IA spécialisées, peut accélérer les process dans les services bancaires. On parle de plus d’efficacité et de réactivité.
Les tendances actuelles montrent cette omniprésence de l'IA dans tous les secteurs, mais il est crucial de comprendre son utilité réelle et d’expliquer logiquement ses décisions. Ces algorithmes sont en effet souvent opaques pour les clients des organismes financiers et des éclaircissements peuvent améliorer la compréhension et donc la satisfaction client.
Les services financiers de demain doivent être capables d’aller plus loin dans ce sens et comme on l’a vu précédemment, l’IA et sa montée en flèche dans le monde bancaire ou de la finance doit encore faire sa révolution pour être compréhensible par l’humain. Le data streaming et sa capacité à pré-filtrer des flux de données de plus en plus gros va permettre de passer cette nouvelle révolution. Les établissements bancaires et financiers disposent d’une boîte à outils parfaite pour réussir, à eux de savoir l’exploiter et d’imaginer nos nouveaux services.
Le système nerveux central de l’automatisation
Les systèmes de détection d'intrusion doivent gérer un grand nombre d'événements, ce qui rend difficile l'analyse sans pré-filtrage. Les infrastructures modernes différencient les canaux de mise à jour et de consultation des données et les coûts des systèmes de type mainframe utilisés par les banques augmentent avec la quantité de travail demandée, d'où l'importance de l'optimisation de ces infrastructures.
Le streaming de données prend donc tout son sens dans ces environnements car il agit comme un filtre géant sur ces millions de transactions par minute, voire par seconde.
Au-delà de la détection de la fraude, il y a également la cybersécurité et la gestion des attaques. Même schéma : il existe des systèmes qui font de l'observabilité et de la détection d’intrusions depuis très longtemps. Mais si l’on commence à injecter dans ces systèmes tous les événements, il devient impossible de pouvoir faire de la détection intelligente sur un flux de données aussi important.
Le data streaming filtre en amont en utilisant des règles de pré-filtrage pour n’envoyer vers ces systèmes experts que les informations qui sont potentiellement un risque. Là où avant on leur demandait de tout redouter, aujourd’hui cela permet de diminuer par 10 ou par 100 le volume d'informations qu'on envoie vers ces systèmes, et comme souvent leur coût est également proportionnel à la quantité d’informations qui est analysée, les économies sont très importantes.
Le streaming de données devient ainsi le système nerveux central où, d'un côté des producteurs vont produire des data en fonction de leur activité et, à l'autre bout de la chaîne, des consommateurs de données vont venir s'abonner à ce flux d’informations, et vont automatiser la lecture, le traitement et les actions qui en résultent. Élément très intéressant dans cette architecture, c'est que l’on passe d'un système point à point à du multipoint, ce qui permet aussi de développer des nouveaux cas d'usage.
Sans contextualisation, point d’analyse et nulle innovation
Dans la notion d'analyse de flux de données, l’important est qu’une donnée isolée ne veut rien dire. Par exemple, analyser une température nécessite plusieurs prises pour comprendre si on a une tendance à la hausse ou une stabilité. Si la série de données est incohérente, on déduira immédiatement un problème.
Il est essentiel d'être capable de traiter le contexte et en particulier dans les services financiers avec toutes les contraintes réglementaires et légales. C’est le mécanisme même de ce qu'on appelle le stream processing, avec cette capacité à traiter des données au fil de l'eau. Ceci implique d'avoir la visibilité pour pouvoir analyser un comportement sur une certaine durée. Loin des filtres d’analyse hyper binaires (oui ou non), les services financiers travaillent sur des données qui doivent être contextualisées en temps réel en fonction des nouvelles données recueillies, ce qui est très compliquée à traiter par un système de programmation traditionnel.
Une révolution des process et usages financiers
Les services financiers sont très représentatifs de l'évolution de l’informatique, de la façon dont on fait les applications aujourd'hui, voire même dont on les utilise. Historiquement, c'était plutôt un outil pour aider les utilisateurs dans leurs tâches. Ils travaillaient avec des papiers et des crayons et on leur a donné des ordinateurs. Ils ont utilisé des tableurs Excel mais les process métiers restaient plus ou moins les mêmes. Ainsi l’informatique a permis d’aller un petit peu plus vite, mais globalement c'était juste un peu plus facile.
Ce que l'on voit arriver aujourd'hui, et ce qui se fait de plus en plus, ce sont les process qui ne sont plus suivis par des humains, mais par des algorithmes. Et cette communication entre les algorithmes, est automatisée également avec des technologies comme le streaming de données. C'est ce qui permet, quand on fait une demande de prêt, d'avoir une réponse dans la minute, parce que le dossier va être envoyé vers un premier algorithme qui va faire une analyse, un premier filtre d'éligibilité, un autre système va faire du scoring, ensuite un autre système va traiter l’approbation par rapport à différents critères, et va générer la réponse et les conditions proposées.
Il s’agit d’une philosophie de micro-services, c'est-à-dire le fait d'avoir des tâches qui sont séparées et qui s'alimentent les unes les autres de façon complètement automatique. Le SI est maintenant devenu l'acteur principal sur beaucoup de chaînes de décision.
L’écueil de la relation client
Les services financiers utilisant de plus en plus l'IA pour améliorer la performance des processus donc logiquement le data streaming, couplé à des IA spécialisées, peut accélérer les process dans les services bancaires. On parle de plus d’efficacité et de réactivité.
Les tendances actuelles montrent cette omniprésence de l'IA dans tous les secteurs, mais il est crucial de comprendre son utilité réelle et d’expliquer logiquement ses décisions. Ces algorithmes sont en effet souvent opaques pour les clients des organismes financiers et des éclaircissements peuvent améliorer la compréhension et donc la satisfaction client.
Les services financiers de demain doivent être capables d’aller plus loin dans ce sens et comme on l’a vu précédemment, l’IA et sa montée en flèche dans le monde bancaire ou de la finance doit encore faire sa révolution pour être compréhensible par l’humain. Le data streaming et sa capacité à pré-filtrer des flux de données de plus en plus gros va permettre de passer cette nouvelle révolution. Les établissements bancaires et financiers disposent d’une boîte à outils parfaite pour réussir, à eux de savoir l’exploiter et d’imaginer nos nouveaux services.