Lorsqu’on lit dans un rapport que les entreprises américaines perdent 600 milliards de dollars par an à cause de la qualité des données, il n’est pas difficile d’imaginer que les assureurs, qui jonglent avec des montagnes de données issues de diverses sources, représentent un pourcentage non négligeable de ces pertes. Il faut compter non seulement les coûts directs liés à l’analyse et à la correction des erreurs, mais également les coûts indirects. Par exemple, lorsque des erreurs sont révélées aux clients et aux organismes régulateurs, des amendes peuvent être imposées et les réactions peuvent entraîner une avalanche de modifications coûteuses dans la manière dont fonctionne l’entreprise. Ces coûts peuvent faire oublier l’intérêt même d’un entrepôt de données, même si la liste des usages de tels systèmes est longue. Par exemple, les responsables du marketing utilisent des données client pour développer de nouveaux produits ciblés et décrocher de nouvelles parts de marché. Grâce aux données, les actuaires peuvent chiffrer le risque avec plus de précision et évaluer les provisions pour sinistres en suspens. Les agents exploitent les données pour développer et préserver les relations avec les clients.
L’environnement actuel donne à ce problème une dimension encore plus aigue. Les nouveaux canaux de distribution et la concurrence accrue sont autant de nouveaux défis que les assureurs doivent relever. Ils doivent mieux comprendre l’efficacité, la rentabilité et les interactions des canaux de distribution, pour pouvoir agir afin de les optimiser. Ils doivent également réduire la durée du cycle de développement des produits et des tarifs, des ventes, des services à la clientèle et des communications. Toutes ces opérations requièrent un accès facile à des données fiables. Le nettoyage des données doit donc être une priorité pour les assureurs.
Avant de nettoyer les données, il faut tout d’abord comprendre les sources de données de l’entreprise. Dans le secteur des assurances, ces sources ont proliféré. Les sources externes principales sont les organisations gouvernementales, les agences d’évaluation du crédit et de déclarations des sinistres, les courtiers, les tiers fournissant des données marketing ou des informations démographiques et enfin directement les consommateurs via le web. Au niveau interne, dès que les compagnies d’assurances ont reconnu l’importance de ne plus limiter l’accès aux données qu’aux cadres supérieurs, les forces de vente et de service, les agents exclusifs et les acteurs de back-office ont commencé à multiplier la saisie, le stockage et l’exploitation de toutes sortes de données. Malheureusement, la majorité de toutes ces sources présentent un grand risque de données inexactes.
De plus en plus de compagnies d’assurances ont commencé à consolider leurs données, issues de leurs systèmes opérationnels ou de bases diverses, au sein d’entrepôts de données centralisés. L’objectif poursuivi est d’obtenir une vision des clients et de l’activité pour l’ensemble de l’entreprise. Ces opérations représentent des occasions uniques pour nettoyer les données. Au début d’un projet de consolidation des données, la majorité des entreprises mettent en place un processus d’extraction, de transformation et de chargement. La partie transformation permet de rechercher les erreurs et les problèmes dans les données entrantes et de les corriger. Le processus de nettoyage a la réputation de souvent dépasser les budgets et les plannings, mais grâce aux nouveaux outils, la maîtrise de ce type de projet a été considérablement améliorée. Par exemple, une grande compagnie a profité des progrès technologiques en matière d’entrepôt de données, pour inverser les deux dernières étapes du processus, devenu Extraction, Chargement et Transformation. Dans le cadre de ce projet de consolidation de données, cette compagnie d’assurances estime que le passage au processus d’extraction, de chargement et de transformation lui a permis de gagner trois à six mois sur le projet, tout en ramenant le pourcentage de données sales de 20 à 0 pour cent.
Les économies de temps et d’argent associées à la confiance dans la fiabilité des informations sont de solides arguments en faveur d’un projet de consolidation des données. Vu le très grand nombre de sources de données, et leur croissance constante, il est primordial de posséder un programme adéquat de gestion des données pour garantir un flux constant de données propres et fiables. Un programme de gestion des données efficace est piloté par la direction et est caractérisé par des équipes pluridisciplinaires qui regroupent des représentants des principaux secteurs techniques et commerciaux, y compris le marketing, la souscription, les ventes, les déclarations de sinistre, les services financiers, juridiques et l’informatique. Ces équipes garantissent non seulement que les collaborateurs comprennent leur rôle dans le maintien de la qualité des données, mais renforcent également la conscience au niveau de l’entreprise de l’importance de ses données historiques de façon à ce que leur utilisation soit optimisée. Les informaticiens, quant à eux, bénéficient d’une meilleure vision d’ensemble qui leur permet d’aligner entièrement leurs priorités sur la stratégie globale de l’entreprise.
Malheureusement, peu d’entreprises ont mis en place un programme de gestion des données tel qu’esquissé ci-dessus. Pour aller plus loin sur ce sujet vous pouvez utilement consulter le lien ci-dessous :
http://www.teradata.com/
L’environnement actuel donne à ce problème une dimension encore plus aigue. Les nouveaux canaux de distribution et la concurrence accrue sont autant de nouveaux défis que les assureurs doivent relever. Ils doivent mieux comprendre l’efficacité, la rentabilité et les interactions des canaux de distribution, pour pouvoir agir afin de les optimiser. Ils doivent également réduire la durée du cycle de développement des produits et des tarifs, des ventes, des services à la clientèle et des communications. Toutes ces opérations requièrent un accès facile à des données fiables. Le nettoyage des données doit donc être une priorité pour les assureurs.
Avant de nettoyer les données, il faut tout d’abord comprendre les sources de données de l’entreprise. Dans le secteur des assurances, ces sources ont proliféré. Les sources externes principales sont les organisations gouvernementales, les agences d’évaluation du crédit et de déclarations des sinistres, les courtiers, les tiers fournissant des données marketing ou des informations démographiques et enfin directement les consommateurs via le web. Au niveau interne, dès que les compagnies d’assurances ont reconnu l’importance de ne plus limiter l’accès aux données qu’aux cadres supérieurs, les forces de vente et de service, les agents exclusifs et les acteurs de back-office ont commencé à multiplier la saisie, le stockage et l’exploitation de toutes sortes de données. Malheureusement, la majorité de toutes ces sources présentent un grand risque de données inexactes.
De plus en plus de compagnies d’assurances ont commencé à consolider leurs données, issues de leurs systèmes opérationnels ou de bases diverses, au sein d’entrepôts de données centralisés. L’objectif poursuivi est d’obtenir une vision des clients et de l’activité pour l’ensemble de l’entreprise. Ces opérations représentent des occasions uniques pour nettoyer les données. Au début d’un projet de consolidation des données, la majorité des entreprises mettent en place un processus d’extraction, de transformation et de chargement. La partie transformation permet de rechercher les erreurs et les problèmes dans les données entrantes et de les corriger. Le processus de nettoyage a la réputation de souvent dépasser les budgets et les plannings, mais grâce aux nouveaux outils, la maîtrise de ce type de projet a été considérablement améliorée. Par exemple, une grande compagnie a profité des progrès technologiques en matière d’entrepôt de données, pour inverser les deux dernières étapes du processus, devenu Extraction, Chargement et Transformation. Dans le cadre de ce projet de consolidation de données, cette compagnie d’assurances estime que le passage au processus d’extraction, de chargement et de transformation lui a permis de gagner trois à six mois sur le projet, tout en ramenant le pourcentage de données sales de 20 à 0 pour cent.
Les économies de temps et d’argent associées à la confiance dans la fiabilité des informations sont de solides arguments en faveur d’un projet de consolidation des données. Vu le très grand nombre de sources de données, et leur croissance constante, il est primordial de posséder un programme adéquat de gestion des données pour garantir un flux constant de données propres et fiables. Un programme de gestion des données efficace est piloté par la direction et est caractérisé par des équipes pluridisciplinaires qui regroupent des représentants des principaux secteurs techniques et commerciaux, y compris le marketing, la souscription, les ventes, les déclarations de sinistre, les services financiers, juridiques et l’informatique. Ces équipes garantissent non seulement que les collaborateurs comprennent leur rôle dans le maintien de la qualité des données, mais renforcent également la conscience au niveau de l’entreprise de l’importance de ses données historiques de façon à ce que leur utilisation soit optimisée. Les informaticiens, quant à eux, bénéficient d’une meilleure vision d’ensemble qui leur permet d’aligner entièrement leurs priorités sur la stratégie globale de l’entreprise.
Malheureusement, peu d’entreprises ont mis en place un programme de gestion des données tel qu’esquissé ci-dessus. Pour aller plus loin sur ce sujet vous pouvez utilement consulter le lien ci-dessous :
http://www.teradata.com/
Autres articles
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
Teradata facilite l’application concrète de l’IA générative et accélère la création de valeur pour les entreprises
-
Teradata propose des capacités d’IA exceptionnelles pour les grandes entreprises et les environnements hybrides en collaboration avec NVIDIA
-
Les nouvelles fonctionnalités de ClearScape Analytics maximisent le retour sur investissement en matière d’IA/ML et renforcent la productivité de la data science