Les agents conversationnels, les véhicules autonomes et les machines connectées des usines numériques donnent un avant-goût de l’avenir : le développement des applications basées sur l’intelligence artificielle (IA) offre de nombreux avantages aux entreprises, tels que l’augmentation de l’efficacité, la diminution des tâches répétitives et l’amélioration de l’expérience client. Mais, entre de mauvaises mains, ces applications peuvent créer des risques bien aussi importants que les bénéfices. C’est pourquoi la vulnérabilité aux cyber-attaques ou aux défaillances techniques, ainsi que le risque de vastes perturbations et de pertes financières élevées, augmenteront à mesure que les sociétés et les économies seront de plus en plus interconnectées. Les entreprises seront également confrontées à de nouveaux risques en matière de responsabilité civile, en raison du transfert du processus décisionnel de l’homme à la machine et au fabricant.
Dans son nouveau rapport intitulé The Rise of Artificial Intelligence: Future Outlook and Emerging Risks, Allianz Global Corporate & Specialty (AGCS) recense les avantages et les risques émergents liés au développement de l’IA dans la société et l’économie, notamment dans le secteur de l’assurance. L’intelligence artificielle, également appelée apprentissage automatique, est un programme capable de penser et d’apprendre comme un être humain.
« L’IA engendre des bénéfices et des risques dans de nombreux domaines : économie, politique, mobilité, santé, défense et environnement. Des stratégies de gestion active du risque seront nécessaires pour optimiser les bénéfices nets de l’introduction à grande échelle des applications IA avancées dans la société », explique Michael Bruch, directeur des tendances émergentes chez AGCS.
Aujourd’hui, des formes élémentaires ou « faibles » d’IA peuvent réaliser des tâches spécifiques, mais les générations futures des applications dites « fortes » seront capables de résoudre des problèmes difficiles et d’exécuter des opérations complexes. L’intelligence artificielle est déjà utilisée dans presque tous les secteurs, par l’intermédiaire d’agents conversationnels qui offrent des conseils financiers ou de machines qui aident les médecins à diagnostiquer des cancers. Elle permet aussi de commander les véhicules autonomes, qui pourraient réduire de 90 % le nombre d’accidents, de mieux prévoir les conditions météorologiques, de traiter des opérations financières ou encore de surveiller ou faire fonctionner des machines industrielles. Selon Accenture, elle pourrait doubler le taux de croissance annuel de douze économies développées d’ici 2035[1].
Mais ces bénéfices potentiels s’accompagnent de risques. Selon le baromètre des risques 2018 d’Allianz, les cyber-risques, parmi les plus importants pour les entreprises, illustrent bien les deux versants des nouvelles technologies telles que l’intelligence artificielle : les logiciels intelligents pourraient réduire le cyber-risque en détectant mieux les attaques, mais aussi l’accroître si des hackers malveillants prenaient le contrôle de systèmes, de machines ou de véhicules. En abaissant les coûts de réalisation des attaques, l’intelligence artificielle pourrait entraîner la survenue d’incidents cyber plus graves et plus ciblés. La même action de piratage, ou la même erreur de programmation, pourrait être répliquée sur de nombreuses machines. On estime aujourd’hui qu’une cyber-attaque majeure, à l’échelle mondiale, pourrait causer des pertes de plus de 50 milliards de dollars[2], et qu’une interruption d’activité d’un prestataire de services de cloud pendant une demi-journée pourrait générer des pertes d’environ 850 millions de dollars[3].
Les cinq principaux domaines de risques IA émergents
Pour identifier les risques IA émergents, AGCS s’est penchée sur cinq principaux domaines : l’accessibilité, la sécurité, la reddition de comptes, la responsabilité et l’éthique. « Une action dans chacun de ces domaines permettra une introduction et un développement responsables de l’intelligence artificielle dans des conditions plus sûres pour la société, signale Michael Bruch. Il est essentiel de prendre des mesures de prévention qui réduisent les risques liés à des effets imprévus. », En matière de sécurité, par exemple, la course au lancement de l’intelligence artificielle sur le marché pourrait conduire à négliger ou à réduire les opérations de validation nécessaires pour garantir le déploiement d’agents IA sûrs, fonctionnels et correctement protégés. Ces déficiences pourraient, en outre, accroître le nombre de produits défectueux et de procédures de rappel.
Concernant la responsabilité, les agents IA pourront, à l’avenir, prendre de nombreuses décisions à la place des êtres humains, mais ils ne pourront pas être tenus légalement responsables de ces décisions. De manière générale, le développeur ou le fabricant d’agents IA est responsable des défauts causant des dommages aux utilisateurs. Cependant, à l’heure actuelle, les décisions IA qui ne sont pas directement liées à la conception ou à la fabrication, mais sont prises par un agent IA en fonction de son interprétation de la réalité n’ont pas de responsable explicitement défini par la loi. « Un règlement des litiges par la justice pourrait être coûteux et inefficace, si le nombre de dommages causés par des agents IA commence à augmenter, observe Michael Bruch. Une solution à cette absence de responsabilité légale serait de créer des autorités ou des organes spécialisés, chargés de définir un cadre de responsabilité dans lequel les concepteurs, les fabricants ou les revendeurs de produits IA seraient soumis à une responsabilité civile limitée. »
Entre-temps, les assureurs auront un rôle crucial à jouer pour réduire, gérer et transférer les risques émergents liés aux applications IA. Ils devront adapter les couvertures traditionnelles pour protéger les consommateurs et les entreprises. L’assurance devra mieux prévoir certains risques auxquels sont confrontées les entreprises, comme les cyber-attaques, l’interruption d’activité, le rappel de produits et les atteintes à la réputation. Les nouveaux modèles d’assurance responsabilité civile susceptibles d’être adoptés, dans des domaines comme les véhicules autonomes par exemple, augmenteront la pression sur les fabricants et les entreprises du numérique, et réduiront la responsabilité objective des consommateurs.
Les assureurs, premiers utilisateurs de l’intelligence artificielle
Le secteur de l’assurance a été parmi les premiers à adopter l’apprentissage automatique, car il doit gérer d’importants volumes de données et des processus répétitifs. « L’intelligence artificielle dispose d’un fort potentiel pour améliorer la chaîne de valeur de l’assurance», précise Michael Bruch. Au départ, elle aidera à l’automatisation des processus d’assurance pour faciliter la prestation de services. L’établissement des contrats et le règlement des indemnisations seront plus rapides et moins coûteux. En développant l’analyse des données, l’IA permettra également une plus grande compréhension et, par conséquent, une meilleure maîtrise des risques par les assureurs et leurs clients. Elle permettra aussi de mettre au point de nouvelles solutions d’assurance. Par exemple, les entreprises pourront mieux analyser les cyber-risques et améliorer leur sécurité, et parallèlement, les assureurs pourront identifier plus précisément les cumuls d’expositions. Enfin, autre élément important, l’intelligence artificielle transformera les relations entre les assureurs et leurs clients, en fournissant un service 24 sur 24, 7 jours sur 7.
Dans son nouveau rapport intitulé The Rise of Artificial Intelligence: Future Outlook and Emerging Risks, Allianz Global Corporate & Specialty (AGCS) recense les avantages et les risques émergents liés au développement de l’IA dans la société et l’économie, notamment dans le secteur de l’assurance. L’intelligence artificielle, également appelée apprentissage automatique, est un programme capable de penser et d’apprendre comme un être humain.
« L’IA engendre des bénéfices et des risques dans de nombreux domaines : économie, politique, mobilité, santé, défense et environnement. Des stratégies de gestion active du risque seront nécessaires pour optimiser les bénéfices nets de l’introduction à grande échelle des applications IA avancées dans la société », explique Michael Bruch, directeur des tendances émergentes chez AGCS.
Aujourd’hui, des formes élémentaires ou « faibles » d’IA peuvent réaliser des tâches spécifiques, mais les générations futures des applications dites « fortes » seront capables de résoudre des problèmes difficiles et d’exécuter des opérations complexes. L’intelligence artificielle est déjà utilisée dans presque tous les secteurs, par l’intermédiaire d’agents conversationnels qui offrent des conseils financiers ou de machines qui aident les médecins à diagnostiquer des cancers. Elle permet aussi de commander les véhicules autonomes, qui pourraient réduire de 90 % le nombre d’accidents, de mieux prévoir les conditions météorologiques, de traiter des opérations financières ou encore de surveiller ou faire fonctionner des machines industrielles. Selon Accenture, elle pourrait doubler le taux de croissance annuel de douze économies développées d’ici 2035[1].
Mais ces bénéfices potentiels s’accompagnent de risques. Selon le baromètre des risques 2018 d’Allianz, les cyber-risques, parmi les plus importants pour les entreprises, illustrent bien les deux versants des nouvelles technologies telles que l’intelligence artificielle : les logiciels intelligents pourraient réduire le cyber-risque en détectant mieux les attaques, mais aussi l’accroître si des hackers malveillants prenaient le contrôle de systèmes, de machines ou de véhicules. En abaissant les coûts de réalisation des attaques, l’intelligence artificielle pourrait entraîner la survenue d’incidents cyber plus graves et plus ciblés. La même action de piratage, ou la même erreur de programmation, pourrait être répliquée sur de nombreuses machines. On estime aujourd’hui qu’une cyber-attaque majeure, à l’échelle mondiale, pourrait causer des pertes de plus de 50 milliards de dollars[2], et qu’une interruption d’activité d’un prestataire de services de cloud pendant une demi-journée pourrait générer des pertes d’environ 850 millions de dollars[3].
Les cinq principaux domaines de risques IA émergents
Pour identifier les risques IA émergents, AGCS s’est penchée sur cinq principaux domaines : l’accessibilité, la sécurité, la reddition de comptes, la responsabilité et l’éthique. « Une action dans chacun de ces domaines permettra une introduction et un développement responsables de l’intelligence artificielle dans des conditions plus sûres pour la société, signale Michael Bruch. Il est essentiel de prendre des mesures de prévention qui réduisent les risques liés à des effets imprévus. », En matière de sécurité, par exemple, la course au lancement de l’intelligence artificielle sur le marché pourrait conduire à négliger ou à réduire les opérations de validation nécessaires pour garantir le déploiement d’agents IA sûrs, fonctionnels et correctement protégés. Ces déficiences pourraient, en outre, accroître le nombre de produits défectueux et de procédures de rappel.
Concernant la responsabilité, les agents IA pourront, à l’avenir, prendre de nombreuses décisions à la place des êtres humains, mais ils ne pourront pas être tenus légalement responsables de ces décisions. De manière générale, le développeur ou le fabricant d’agents IA est responsable des défauts causant des dommages aux utilisateurs. Cependant, à l’heure actuelle, les décisions IA qui ne sont pas directement liées à la conception ou à la fabrication, mais sont prises par un agent IA en fonction de son interprétation de la réalité n’ont pas de responsable explicitement défini par la loi. « Un règlement des litiges par la justice pourrait être coûteux et inefficace, si le nombre de dommages causés par des agents IA commence à augmenter, observe Michael Bruch. Une solution à cette absence de responsabilité légale serait de créer des autorités ou des organes spécialisés, chargés de définir un cadre de responsabilité dans lequel les concepteurs, les fabricants ou les revendeurs de produits IA seraient soumis à une responsabilité civile limitée. »
Entre-temps, les assureurs auront un rôle crucial à jouer pour réduire, gérer et transférer les risques émergents liés aux applications IA. Ils devront adapter les couvertures traditionnelles pour protéger les consommateurs et les entreprises. L’assurance devra mieux prévoir certains risques auxquels sont confrontées les entreprises, comme les cyber-attaques, l’interruption d’activité, le rappel de produits et les atteintes à la réputation. Les nouveaux modèles d’assurance responsabilité civile susceptibles d’être adoptés, dans des domaines comme les véhicules autonomes par exemple, augmenteront la pression sur les fabricants et les entreprises du numérique, et réduiront la responsabilité objective des consommateurs.
Les assureurs, premiers utilisateurs de l’intelligence artificielle
Le secteur de l’assurance a été parmi les premiers à adopter l’apprentissage automatique, car il doit gérer d’importants volumes de données et des processus répétitifs. « L’intelligence artificielle dispose d’un fort potentiel pour améliorer la chaîne de valeur de l’assurance», précise Michael Bruch. Au départ, elle aidera à l’automatisation des processus d’assurance pour faciliter la prestation de services. L’établissement des contrats et le règlement des indemnisations seront plus rapides et moins coûteux. En développant l’analyse des données, l’IA permettra également une plus grande compréhension et, par conséquent, une meilleure maîtrise des risques par les assureurs et leurs clients. Elle permettra aussi de mettre au point de nouvelles solutions d’assurance. Par exemple, les entreprises pourront mieux analyser les cyber-risques et améliorer leur sécurité, et parallèlement, les assureurs pourront identifier plus précisément les cumuls d’expositions. Enfin, autre élément important, l’intelligence artificielle transformera les relations entre les assureurs et leurs clients, en fournissant un service 24 sur 24, 7 jours sur 7.