Eric PAGE, Directeur Conseil d’Effisoft
A la mode dans des secteurs aussi variés que la recherche scientifique, la sécurité, la vente par correspondance et les télécoms, le Big Data est aussi un enjeu majeur pour le secteur des assurances.
Trop souvent, le Big Data dans l’assurance est cantonné au traitement des données externes (habitudes/comportements des assurés/internautes, coordonnées, contrats, sinistres, tarifs de la concurrence, santé, climat…), ce qui est réducteur car avec Solvabilité II, l’assureur centralise et accumule d’autres flux que les données CRM ou Marketing.
Les données internes se révèlent en effet tout aussi volumineuses, véloces et variées (règle des 3V) et donc stratégiques, qu’il s’agisse des provisions, des simulations actuarielles, des actifs ou des données comptables qui s’étendent sur des périodes de plusieurs dizaines d’années.
Force est de reconnaître que les professionnels de l’assurance ont à leur disposition des données internes de plus en plus complexes qu’ils doivent structurer et analyser pour piloter leur activité sur des échéances très rapprochées. Concrètement, le recours quasi systématique à des calculs de type stochastiques entraine de facto la manipulation de très grandes quantités de données pour appréhender au mieux l’ensemble des risques.
Et au fil des exercices et des livrables successifs, les sociétés d’assurance chercheront à s’approprier ces données, à étudier leurs interrelations pour au final conduire à des optimisations stratégiques, au titre de la mise en œuvre de processus type ORSA par exemple.
L’exploitation efficace de ces données au sein d’analyses multidimensionnelles et dans des délais très courts peut aussi relever du Big Data. Et le marché est d’ores et déjà intéressé par les solutions informatiques permettant de dénormaliser les bases de données et d’exploiter ainsi de très grands volumes, qu’ils soient issus de calculs (comme c’est le cas pour la recherche scientifique) ou de sources externes (cartographies des risques naturels par exemple).
Pionniers dans le domaine de l’automatisation du reporting et des échanges d’informations sur le secteur des assurances, nous avons pu constater l’évolution des attentes du marché en phase avec les progrès technologiques.
Il y a 20 ans et dans le contexte de Solvabilité I, un logiciel de reporting réglementaire s’adressait avant tout à des comptables. Les sociétés d’assurances attendaient une importante expertise métier de la part de l’éditeur pour :
-Adapter le logiciel à leurs besoins spécifiques ;
-Former les utilisateurs ;
-Les accompagner lors des périodes d’intense activité (périodes de clôture, échéances réglementaires…).
20 ans plus tard et notamment avec Solvabilité II, les comptables ne sont plus les seuls concernés par le reporting réglementaire. Si l’expertise métier est toujours nécessaire, elle couvre des sujets aussi variés que l’actuariat, la gestion d’actifs, la réassurance, etc.
Dans le cadre de la mise en œuvre d’un logiciel pour la conformité Solvabilité II, l’utilisateur attend donc un interlocuteur, de préférence unique, maîtrisant à la fois les aspects techniques, fonctionnels et métier.
La double (voire triple) compétence est dès lors attendue à toutes les phases de la vie du produit :
-A la conception de l’outil pour structurer les dimensions pertinentes qui permettront d’asseoir les analyses multidimensionnelles. Il s’agit alors d’anticiper les besoins de l’utilisateur pour qu’ils soient couverts par le logiciel ;
-Pour le SAV / la maintenance : les utilisateurs peuvent être amenés à questionner l’éditeur sur une anomalie mais aussi sur la pertinence d’une analyse, la justesse d’un calcul ou l’optimisation des temps de traitement dans un processus désormais quasi continu de production de données réglementaires. Les compétences requises ne sont plus du tout du même ordre que sous Solvabilité I !
-Pour du conseil sur l’utilisation des données traitées par le logiciel et l’interprétation des résultats générés.
Face à la difficulté pour réunir toutes ces expertises, quelques solutions s’offrent aux éditeurs qui ne sont pas familiers des spécificités du secteur des assurances et qui souhaitent malgré tout se positionner sur ce marché : ils peuvent dans un premier temps masquer leurs lacunes en nouant des partenariats avec des cabinets de conseil et en développant des offres en marque blanche avec des éditeurs proposant des solutions complémentaires. Mais ils devront tôt ou tard couvrir tout le spectre des services attendus par leurs utilisateurs. Cette évolution impactera forcément les fondements de l’organisation de ces éditeurs : en matière de R&D, de ressources humaines, de management, de marketing/ventes, etc.
Trop souvent, le Big Data dans l’assurance est cantonné au traitement des données externes (habitudes/comportements des assurés/internautes, coordonnées, contrats, sinistres, tarifs de la concurrence, santé, climat…), ce qui est réducteur car avec Solvabilité II, l’assureur centralise et accumule d’autres flux que les données CRM ou Marketing.
Les données internes se révèlent en effet tout aussi volumineuses, véloces et variées (règle des 3V) et donc stratégiques, qu’il s’agisse des provisions, des simulations actuarielles, des actifs ou des données comptables qui s’étendent sur des périodes de plusieurs dizaines d’années.
Force est de reconnaître que les professionnels de l’assurance ont à leur disposition des données internes de plus en plus complexes qu’ils doivent structurer et analyser pour piloter leur activité sur des échéances très rapprochées. Concrètement, le recours quasi systématique à des calculs de type stochastiques entraine de facto la manipulation de très grandes quantités de données pour appréhender au mieux l’ensemble des risques.
Et au fil des exercices et des livrables successifs, les sociétés d’assurance chercheront à s’approprier ces données, à étudier leurs interrelations pour au final conduire à des optimisations stratégiques, au titre de la mise en œuvre de processus type ORSA par exemple.
L’exploitation efficace de ces données au sein d’analyses multidimensionnelles et dans des délais très courts peut aussi relever du Big Data. Et le marché est d’ores et déjà intéressé par les solutions informatiques permettant de dénormaliser les bases de données et d’exploiter ainsi de très grands volumes, qu’ils soient issus de calculs (comme c’est le cas pour la recherche scientifique) ou de sources externes (cartographies des risques naturels par exemple).
Pionniers dans le domaine de l’automatisation du reporting et des échanges d’informations sur le secteur des assurances, nous avons pu constater l’évolution des attentes du marché en phase avec les progrès technologiques.
Il y a 20 ans et dans le contexte de Solvabilité I, un logiciel de reporting réglementaire s’adressait avant tout à des comptables. Les sociétés d’assurances attendaient une importante expertise métier de la part de l’éditeur pour :
-Adapter le logiciel à leurs besoins spécifiques ;
-Former les utilisateurs ;
-Les accompagner lors des périodes d’intense activité (périodes de clôture, échéances réglementaires…).
20 ans plus tard et notamment avec Solvabilité II, les comptables ne sont plus les seuls concernés par le reporting réglementaire. Si l’expertise métier est toujours nécessaire, elle couvre des sujets aussi variés que l’actuariat, la gestion d’actifs, la réassurance, etc.
Dans le cadre de la mise en œuvre d’un logiciel pour la conformité Solvabilité II, l’utilisateur attend donc un interlocuteur, de préférence unique, maîtrisant à la fois les aspects techniques, fonctionnels et métier.
La double (voire triple) compétence est dès lors attendue à toutes les phases de la vie du produit :
-A la conception de l’outil pour structurer les dimensions pertinentes qui permettront d’asseoir les analyses multidimensionnelles. Il s’agit alors d’anticiper les besoins de l’utilisateur pour qu’ils soient couverts par le logiciel ;
-Pour le SAV / la maintenance : les utilisateurs peuvent être amenés à questionner l’éditeur sur une anomalie mais aussi sur la pertinence d’une analyse, la justesse d’un calcul ou l’optimisation des temps de traitement dans un processus désormais quasi continu de production de données réglementaires. Les compétences requises ne sont plus du tout du même ordre que sous Solvabilité I !
-Pour du conseil sur l’utilisation des données traitées par le logiciel et l’interprétation des résultats générés.
Face à la difficulté pour réunir toutes ces expertises, quelques solutions s’offrent aux éditeurs qui ne sont pas familiers des spécificités du secteur des assurances et qui souhaitent malgré tout se positionner sur ce marché : ils peuvent dans un premier temps masquer leurs lacunes en nouant des partenariats avec des cabinets de conseil et en développant des offres en marque blanche avec des éditeurs proposant des solutions complémentaires. Mais ils devront tôt ou tard couvrir tout le spectre des services attendus par leurs utilisateurs. Cette évolution impactera forcément les fondements de l’organisation de ces éditeurs : en matière de R&D, de ressources humaines, de management, de marketing/ventes, etc.