2025 sera l’année de la sûreté et de la sécurité de l’IA
« La sûreté de l’IA se focalise sur la prévention des accidents, des usages abusifs et autres conséquences néfastes qui peuvent résulter de l’intelligence artificielle. La sécurité de l’IA, en revanche, vise à protéger cette technologie contre les attaques et les compromissions. Avec l’apparition des grands modèles de langage (LLM) publics et de l’intelligence artificielle générative (GenAI) au cours des deux dernières années, les entreprises ont eu l’occasion de se familiariser avec l’IA. Ainsi, elles maîtrisent mieux les dangers et les vulnérabilités liés à cette technologie et ont pu en constater les aspects négatifs sur le terrain. Désormais, les organisations donneront la priorité au développement des capacités et aux processus de gestion des risques afin de résoudre ces questions avant tout déploiement et production à grande échelle. C’est pourquoi l’année 2025 sera marquée par une véritable course au sommet en matière de sûreté et de sécurité de l’IA. Et les entreprises capables de gagner la confiance des consommateurs et de produire les résultats escomptés bénéficieront d’un avantage concurrentiel. » David Fairman, CIO et CISO APAC.
Les LLM ou « générateurs de baratin »
« J’ai une prédiction, mais celle-ci est un peu difficile à exprimer. Elle repose sur une observation/un argument selon lequel les grands modèles de langage (LLM) génèrent du "baratin", au sens philosophico-technique du terme : les LLM et autres "générateurs de baratin" ne se préoccupent guère de la véracité des informations qu’ils produisent. Je pense que les traiter de la sorte est un moyen efficace de répondre à diverses questions relatives à l’applicabilité, au cas où l’IA prend le contrôle du monde, et à d’autres sujets similaires.
À mon avis, cette perspective se répandra de plus en plus, et se généralisera peut-être même, en 2025. Il est important toutefois de souligner que cet argument ne vient pas pour faire paraître l’IA comme inutile – loin de là. Il met plutôt en avant un usage étrange de l’IA qui ne correspond pas tout à fait aux éléments que l’on nous demande généralement de gérer. "Quelles tâches peuvent être déléguées à un excellent outil automatisé ?" : cette question ne fait probablement pas partie des thématiques abordées dans la plupart des formations en management, mais elle semble importante aujourd’hui et le sera sans doute encore plus en 2025. » Mark Day, Chief Scientist.
« Les acheteurs réaliseront que tout le battage médiatique autour de l’IA n’est en grande partie que de la poudre aux yeux. Dans le domaine de la sécurité des informations, l’IA n’offre que deux formes de valeur ajoutée. La première consiste à analyser des volumes massifs de journaux, d’alertes, d’alarmes et d’incidents pour détecter ceux qui comptent réellement – et qui seront ensuite gérés par des humains. La deuxième consiste à ajouter une phase de prédiction en amont du cadre standard "prévention-détection-réponse" pour améliorer la prévention, et ainsi, réduire le nombre de réactions auxquelles nous devons régulièrement faire face. » Steve Riley, Field CTO.
Gouvernance de l’IA
« Avec les nouvelles réglementations en vigueur, notamment la loi de l’Union Européenne sur l’IA, et les risques d’amende imminents en cas d’usage abusif de l’IA (jusqu’à 6 % du chiffre d’affaires annuel mondial), les entreprises auront besoin d’une plus grande visibilité sur l’utilisation de cette technologie. Les professionnels de la sécurité et de la confidentialité assumeront de plus grandes responsabilités pour contrôler et régir l’utilisation de l’IA au sein de leurs structures, tout en bénéficiant du soutien de l’entreprise et de celui d’un Chief AI Officer (CAIO), le cas échéant. »
L’IA agentique
« En 2025, la prochaine itération de l’IA générative sera marquée par une généralisation de l’IA agentique dans les entreprises. Les professionnels de la sécurité et de la confidentialité devront étudier la manière de protéger l’IA agentique de bout en bout et veiller à ce que les données soient prêtes pour l’IA. Ils devront également protéger les moteurs de raisonnement et les résultats générés de la même manière que leurs systèmes d’IA actuels. Le problème, c’est que l’IA agentique exigera un dispositif de protection entièrement automatisé pour soutenir l’autonomie des entreprises. Or, pour bon nombre d’entre elles, l’automatisation des dispositifs de protection reste encore une aspiration. »
Données prêtes pour l’IA
« Les données d’entreprise sont rapidement devenues la principale source de renseignements exploitables au sein des systèmes d’IA destinés aux entreprises. De plus en plus d’organisations leur exposent leurs données, ce qui nécessite de renforcer les contrôles d’accès, l’anonymisation et la traçabilité de ces informations. Dans ce contexte, les professionnels de la sécurité et de la confidentialité devront également veiller à une utilisation plus efficace de la génération des données synthétiques, tout en améliorant les standards de partage (c’est-à-dire le nettoyage des données). » Neil Thacker, CISO EMEA.
L’évolution de la protection des données sur les LLM
« En 2025, la protection des données évoluera vers une analyse dynamique en entrée et en sortie des grands modèles de langage (LLM), qui s’adaptera à l’identité et au rôle de chaque personne effectuant la requête. Les gardiens de l’IA agiront comme des superviseurs intelligents, appliquant des politiques spécifiques aux utilisateurs pour veiller à ce que les flux de données dans les modèles d’IA s’alignent sur les standards de conformité et d’éthique adaptés au contexte de chaque utilisateur. En interceptant et en gérant les informations sensibles selon l’identité des utilisateurs et la sensibilité des données, cette approche fournit un cadre de protection des données flexible et sécurisé. Cette évolution permet aux entreprises d’exploiter l’IA en toute confiance, avec des protocoles de sécurité des données qui s’adaptent à chaque interaction en fonction des personnes qui accèdent aux informations et de la manière dont elles y accèdent. »
Le zero trust adaptable devient le nouveau standard de sécurité
« D’ici 2025, les entreprises ayant initialement adopté le zero trust évolueront vers un modèle plus avancé : le zero trust adaptable en continu. Cette approche intègre la sécurité des identités, des terminaux et du réseau à des informations en temps réel pour décider des accès en fonction du contexte complet de chaque interaction. Le zero trust adaptable en continu va au-delà des règles statiques. Il exploite des données dynamiques et situationnelles pour ajuster instantanément les contrôles de sécurité. En plus de simplifier la gestion de la sécurité, cette adaptabilité améliore l’expérience utilisateur et renforce les dispositifs de défense des organisations. Les entreprises qui misent sur un zero trust adaptable en continu sauront demeurer agiles et résilientes face à des menaces en perpétuelle évolution. »
Le DSI joue le rôle de Chief AI Officer et impulse l’innovation au travers de l’IA
« D’ici 2025, à mesure que les entreprises intégreront pleinement l’IA dans leurs stratégies, les DSI assumeront de plus en plus la fonction de Chief AI Officer, pilotant à la fois les initiatives IT et IA. En tant que responsable de l’agilité opérationnelle, de la transformation numérique et de la production de résultats métiers tangibles, le DSI élargira son champ d’action pour inclure une stratégie d’IA de bout en bout. Objectif : intégrer l’IA dans toutes les business units pour améliorer l’expérience client, rationaliser les opérations et stimuler la croissance. Ce double rôle consolide la position du DSI en tête de file de l’innovation en combinant la gestion technologique et le leadership en matière d’IA pour guider l’entreprise dans sa capacité à générer de la valeur et à maintenir sa compétitivité dans un environnement axé sur l’IA. » Mike Anderson, Global CIO.
Le monde post-quantique
« En 2025, l’informatique quantique devrait franchir un cap majeur : celui de pouvoir compromettre des standards de chiffrement largement utilisés comme AES. Ce bond en avant technologique nécessitera de créer et d’adopter immédiatement des algorithmes de chiffrement capables de résister aux attaques quantiques, dont certains sont déjà disponibles comme CRYSTALS-Kyber, FALCON et SPHINCS+.
Partout dans le monde, les entreprises devront passer au chiffrement post-quantique, une suite de techniques conçues pour résister aux attaques d’ordinateurs classiques et quantiques. Des emails personnels aux transactions financières ultra-critiques, ces algorithmes avancés protègeront un large éventail de communications numériques. À l’aube de l’informatique quantique, le besoin urgent de renforcer notre infrastructure numérique contre les menaces potentielles est primordial. Les années à venir seront cruciales pour le développement et la mise en œuvre de mesures de sécurité robustes permettant de résister aux attaques quantiques. » Rehman Khan, Director, Cyber Architecture and Engineering.
« La sûreté de l’IA se focalise sur la prévention des accidents, des usages abusifs et autres conséquences néfastes qui peuvent résulter de l’intelligence artificielle. La sécurité de l’IA, en revanche, vise à protéger cette technologie contre les attaques et les compromissions. Avec l’apparition des grands modèles de langage (LLM) publics et de l’intelligence artificielle générative (GenAI) au cours des deux dernières années, les entreprises ont eu l’occasion de se familiariser avec l’IA. Ainsi, elles maîtrisent mieux les dangers et les vulnérabilités liés à cette technologie et ont pu en constater les aspects négatifs sur le terrain. Désormais, les organisations donneront la priorité au développement des capacités et aux processus de gestion des risques afin de résoudre ces questions avant tout déploiement et production à grande échelle. C’est pourquoi l’année 2025 sera marquée par une véritable course au sommet en matière de sûreté et de sécurité de l’IA. Et les entreprises capables de gagner la confiance des consommateurs et de produire les résultats escomptés bénéficieront d’un avantage concurrentiel. » David Fairman, CIO et CISO APAC.
Les LLM ou « générateurs de baratin »
« J’ai une prédiction, mais celle-ci est un peu difficile à exprimer. Elle repose sur une observation/un argument selon lequel les grands modèles de langage (LLM) génèrent du "baratin", au sens philosophico-technique du terme : les LLM et autres "générateurs de baratin" ne se préoccupent guère de la véracité des informations qu’ils produisent. Je pense que les traiter de la sorte est un moyen efficace de répondre à diverses questions relatives à l’applicabilité, au cas où l’IA prend le contrôle du monde, et à d’autres sujets similaires.
À mon avis, cette perspective se répandra de plus en plus, et se généralisera peut-être même, en 2025. Il est important toutefois de souligner que cet argument ne vient pas pour faire paraître l’IA comme inutile – loin de là. Il met plutôt en avant un usage étrange de l’IA qui ne correspond pas tout à fait aux éléments que l’on nous demande généralement de gérer. "Quelles tâches peuvent être déléguées à un excellent outil automatisé ?" : cette question ne fait probablement pas partie des thématiques abordées dans la plupart des formations en management, mais elle semble importante aujourd’hui et le sera sans doute encore plus en 2025. » Mark Day, Chief Scientist.
« Les acheteurs réaliseront que tout le battage médiatique autour de l’IA n’est en grande partie que de la poudre aux yeux. Dans le domaine de la sécurité des informations, l’IA n’offre que deux formes de valeur ajoutée. La première consiste à analyser des volumes massifs de journaux, d’alertes, d’alarmes et d’incidents pour détecter ceux qui comptent réellement – et qui seront ensuite gérés par des humains. La deuxième consiste à ajouter une phase de prédiction en amont du cadre standard "prévention-détection-réponse" pour améliorer la prévention, et ainsi, réduire le nombre de réactions auxquelles nous devons régulièrement faire face. » Steve Riley, Field CTO.
Gouvernance de l’IA
« Avec les nouvelles réglementations en vigueur, notamment la loi de l’Union Européenne sur l’IA, et les risques d’amende imminents en cas d’usage abusif de l’IA (jusqu’à 6 % du chiffre d’affaires annuel mondial), les entreprises auront besoin d’une plus grande visibilité sur l’utilisation de cette technologie. Les professionnels de la sécurité et de la confidentialité assumeront de plus grandes responsabilités pour contrôler et régir l’utilisation de l’IA au sein de leurs structures, tout en bénéficiant du soutien de l’entreprise et de celui d’un Chief AI Officer (CAIO), le cas échéant. »
L’IA agentique
« En 2025, la prochaine itération de l’IA générative sera marquée par une généralisation de l’IA agentique dans les entreprises. Les professionnels de la sécurité et de la confidentialité devront étudier la manière de protéger l’IA agentique de bout en bout et veiller à ce que les données soient prêtes pour l’IA. Ils devront également protéger les moteurs de raisonnement et les résultats générés de la même manière que leurs systèmes d’IA actuels. Le problème, c’est que l’IA agentique exigera un dispositif de protection entièrement automatisé pour soutenir l’autonomie des entreprises. Or, pour bon nombre d’entre elles, l’automatisation des dispositifs de protection reste encore une aspiration. »
Données prêtes pour l’IA
« Les données d’entreprise sont rapidement devenues la principale source de renseignements exploitables au sein des systèmes d’IA destinés aux entreprises. De plus en plus d’organisations leur exposent leurs données, ce qui nécessite de renforcer les contrôles d’accès, l’anonymisation et la traçabilité de ces informations. Dans ce contexte, les professionnels de la sécurité et de la confidentialité devront également veiller à une utilisation plus efficace de la génération des données synthétiques, tout en améliorant les standards de partage (c’est-à-dire le nettoyage des données). » Neil Thacker, CISO EMEA.
L’évolution de la protection des données sur les LLM
« En 2025, la protection des données évoluera vers une analyse dynamique en entrée et en sortie des grands modèles de langage (LLM), qui s’adaptera à l’identité et au rôle de chaque personne effectuant la requête. Les gardiens de l’IA agiront comme des superviseurs intelligents, appliquant des politiques spécifiques aux utilisateurs pour veiller à ce que les flux de données dans les modèles d’IA s’alignent sur les standards de conformité et d’éthique adaptés au contexte de chaque utilisateur. En interceptant et en gérant les informations sensibles selon l’identité des utilisateurs et la sensibilité des données, cette approche fournit un cadre de protection des données flexible et sécurisé. Cette évolution permet aux entreprises d’exploiter l’IA en toute confiance, avec des protocoles de sécurité des données qui s’adaptent à chaque interaction en fonction des personnes qui accèdent aux informations et de la manière dont elles y accèdent. »
Le zero trust adaptable devient le nouveau standard de sécurité
« D’ici 2025, les entreprises ayant initialement adopté le zero trust évolueront vers un modèle plus avancé : le zero trust adaptable en continu. Cette approche intègre la sécurité des identités, des terminaux et du réseau à des informations en temps réel pour décider des accès en fonction du contexte complet de chaque interaction. Le zero trust adaptable en continu va au-delà des règles statiques. Il exploite des données dynamiques et situationnelles pour ajuster instantanément les contrôles de sécurité. En plus de simplifier la gestion de la sécurité, cette adaptabilité améliore l’expérience utilisateur et renforce les dispositifs de défense des organisations. Les entreprises qui misent sur un zero trust adaptable en continu sauront demeurer agiles et résilientes face à des menaces en perpétuelle évolution. »
Le DSI joue le rôle de Chief AI Officer et impulse l’innovation au travers de l’IA
« D’ici 2025, à mesure que les entreprises intégreront pleinement l’IA dans leurs stratégies, les DSI assumeront de plus en plus la fonction de Chief AI Officer, pilotant à la fois les initiatives IT et IA. En tant que responsable de l’agilité opérationnelle, de la transformation numérique et de la production de résultats métiers tangibles, le DSI élargira son champ d’action pour inclure une stratégie d’IA de bout en bout. Objectif : intégrer l’IA dans toutes les business units pour améliorer l’expérience client, rationaliser les opérations et stimuler la croissance. Ce double rôle consolide la position du DSI en tête de file de l’innovation en combinant la gestion technologique et le leadership en matière d’IA pour guider l’entreprise dans sa capacité à générer de la valeur et à maintenir sa compétitivité dans un environnement axé sur l’IA. » Mike Anderson, Global CIO.
Le monde post-quantique
« En 2025, l’informatique quantique devrait franchir un cap majeur : celui de pouvoir compromettre des standards de chiffrement largement utilisés comme AES. Ce bond en avant technologique nécessitera de créer et d’adopter immédiatement des algorithmes de chiffrement capables de résister aux attaques quantiques, dont certains sont déjà disponibles comme CRYSTALS-Kyber, FALCON et SPHINCS+.
Partout dans le monde, les entreprises devront passer au chiffrement post-quantique, une suite de techniques conçues pour résister aux attaques d’ordinateurs classiques et quantiques. Des emails personnels aux transactions financières ultra-critiques, ces algorithmes avancés protègeront un large éventail de communications numériques. À l’aube de l’informatique quantique, le besoin urgent de renforcer notre infrastructure numérique contre les menaces potentielles est primordial. Les années à venir seront cruciales pour le développement et la mise en œuvre de mesures de sécurité robustes permettant de résister aux attaques quantiques. » Rehman Khan, Director, Cyber Architecture and Engineering.
Autres articles
-
Netskope annonce son intégration à ChatGPT Enterprise d’OpenAI, pour renforcer la gouvernance et la conformité des données
-
Protection des données et éthique : l’importance de l’IA Act européen
-
Étude Netskope / Ponemon Institute : 72 % des entreprises ne font pas confiance aux fournisseurs de services Cloud pour respecter les lois et réglementations en vigueur sur la protection des données