Jérôme Thomas, Solution Engineer Manager chez Dynatrace
Les capacités et la complexité des applications d’IA pour le business ont augmenté de façon exponentielle, rendant essentiel pour les organisations de disposer aujourd’hui de nouvelles fonctionnalités comme l’IA explicable. De nombreuses solutions, telles que les outils DevOps, les systèmes de réponses aux incidents ou encore les technologies de recherche, ont toutes bénéficié des progrès de l’intelligence artificielle. Les fonctionnalités d’automatisation et d’analyses ont notamment contribué à améliorer l’efficacité et les performances opérationnelles en suivant et en apportant des réponses à des situations complexes ou particulièrement riches en informations.
Cependant, la complexité croissante des modèles d’IA s’accompagne d’un problème majeur: celui de la transparence. Certains modèles d’IA de dernière génération sont devenus si complexes dans la façon dont ils décident d’un résultat, que même les experts du domaine ne parviennent pas à comprendre comment ni pourquoi ils prennent ces décisions. C’est ce que l’on appelle souvent le problème de la boîte noire – que l’IA explicable vise à résoudre.
En quoi l’IA explicable est-elle si importante ? Quels sont les défis liés à sa mise en œuvre ? Et quels sont les éléments clés à rechercher dans une solution alimentée par l’IA ?
Qu’est-ce que l’IA explicable, et pourquoi est-elle essentielle ?
L’IA explicable est un aspect de l’intelligence artificielle visant à rendre l’IA plus transparente et plus compréhensible, et se traduisant par une plus grande confiance de la part des équipes qui en bénéficient. Dans un monde parfait, un modèle d’IA robuste exécute des tâches complexes pendant que les utilisateurs observent le processus de décision et contrôlent les erreurs et les problèmes.
Le besoin de rendre l’IA intelligible est de plus en plus prégnant, tous secteurs et applications confondus. Par exemple, les applications de finance ou de santé vont peut-être devoir remplir des exigences réglementaires impliquant une transparence des outils d’IA. L’une des principales préoccupations dans le développement des véhicules autonomes concerne la sécurité, et la capacité à comprendre un modèle d’IA s’avère ici aussi crucial pour améliorer et maintenir le fonctionnement d’une telle technologie. Souvent, l’IA explicable n’est donc pas qu’une solution de confort – c’est un élément critique des opérations business et des normes du marché.
À mesure que davantage de technologies basées sur IA seront développées et adoptées, davantage de réglementations gouvernementales et industrielles seront aussi promulguées. Dans l’union européenne, par exemple, la loi sur l’IA impose la transparence des algorithmes d’IA, mais son périmètre reste pour l’instant limité. L’IA est un outil si puissant qu’elle continuera sans aucun doute à gagner en popularité et en sophistication, entraînant dans son sillage davantage de réglementations et d’exigences en matière de transparence.
Les modèles d’IA soulèvent également des questionnements en termes de biais et de fiabilité. Les hallucinations de l’IA générative ont beaucoup fait parler d’elles ces derniers temps. Mais les modèles d’IA ont un historique établi de résultats influencés par des critères de race, de genre, etc. Les outils et les pratiques d’IA explicable sont importants pour comprendre et éradiquer ce type de biais, et améliorer ainsi la précision des résultats et l’efficacité des opérations.
En fin de compte, l’IA explicable consiste à rationaliser et améliorer les capacités d’une organisation. Davantage de transparence signifie une meilleure compréhension de la technologie utilisée, de meilleurs diagnostics et davantage d’opportunités d’affûter les outils d’une organisation.
Les défis actuels de l’IA explicable pour les organisations
L’IA explicable peut signifier plusieurs choses, et le terme lui-même s’avère assez difficile à définir. Pour certains, il s’agit d’une méthodologie de design – un pilier fondamental du processus de développement d’un modèle d’IA. L’IA explicable désigne également l’ensemble des fonctionnalités ou des capacités attendues des solutions basées sur IA, comme les arbres de décisions et les tableaux de bord. Le terme peut aussi décrire une manière d’utiliser un outil d’IA dans le respect des principes de transparence. Bien que tous ces exemples d’IA explicable soient valables, son rôle le plus important est de promouvoir l’interprétabilité de l’IA à travers un ensemble d’applications.
L’une des faiblesses des technologies actuelles d’IA explicable est que leur efficacité varie en fonction des modèles. Certains modèles, comme les modèles de deep learning ou basés sur un réseau neuronal, sont denses et complexes, ce qui les rend difficiles à interpréter. À l’inverse, les modèles linéaires et basés sur des arbres de décisions, sont plus facilement compréhensibles et transparents grâce à un processus de décision plus simple via une cartographie de dépendances.
Les méthodologies d’IA explicable en sont toujours à leurs premiers stades de développement. D’ici cinq ans, de nouveaux outils et de nouvelles méthodes auront fait leur apparition pour comprendre les modèles d’IA complexes, même si ces modèles continuent à progresser et à évoluer. À l’heure actuelle, les experts et les fournisseurs de solutions d’IA doivent impérativement continuer leurs efforts pour rendre explicables les applications d’IA, afin de fournir aux organisations des outils d’IA à la fois sûrs, fiables et puissants.
Identifier les éléments clés de l’IA explicable
L’IA explicable est un vaste sujet. Il est donc difficile de lister toutes les caractéristiques qui s’appliqueraient à l’ensemble des solutions d’IA explicables. Certaines approches privilégient des aspects particuliers de la méthodologie plutôt que d’autres, ou ne s’appliquent qu’à certains modèles de machine learning. Néanmoins, toute approche globale de l’IA explicable doit prendre en compte les éléments suivants :
- Interprétabilité. Il est nécessaire d’avoir une fonctionnalité de référence pour interpréter un modèle d’IA. Les prédictions, les décisions et les autres résultats de l’IA doivent être compréhensibles pour un être humain et, au minimum, traçables tout au long du processus de décision du modèle. La profondeur d’interprétabilité dont votre organisation a besoin, va probablement dépendre du modèle que vous devez rendre plus compréhensible et de vos propres cas d’usage.
- Méthodes de communication. Il faut être particulièrement vigilant à la façon dont une solution axée sur une IA explicable communique les informations. De puissants outils de visualisation sont nécessaires pour maximiser les bénéfices d’une méthode d’IA explicable. Les arbres de décisions et les tableaux de bords sont deux méthodes de visualisation assez courantes qui représentent des données complexes dans un format facile à lire. Ces outils peuvent transformer les données en informations concrètes. Là encore, l’utilité des différents outils de visualisation dépend du modèle d’IA.
- Interprétabilité globale vs. locale. Enfin, il est important de distinguer les explications globales et locales. Les explications globales désignent les analyses et les résultats qui donnent aux utilisateurs des informations sur la façon dont le modèle agit dans son ensemble. Il peut s’agir de montrer quelles portions de données sont utilisées pendant une série de tâches, où les systèmes automatisés agissent et ce qu’ils font, etc. Les explications locales correspondent aux informations portant sur les décisions individuelles d’un modèle d’IA. Ces dernières sont importantes pour aider une organisation à comprendre un résultat étrange ou incorrect, ou à disposer d’informations transparentes pour des raisons réglementaires.
L’IA explicable est une branche du développement de technologies d’IA en pleine transformation. Mais cette tendance accrue vers de plus grandes capacités d’explication des modèles a déjà donné naissance à de multiples nouvelles façons d’utiliser l’IA qui peuvent significativement améliorer les performances opérationnelles des organisations.
Cependant, la complexité croissante des modèles d’IA s’accompagne d’un problème majeur: celui de la transparence. Certains modèles d’IA de dernière génération sont devenus si complexes dans la façon dont ils décident d’un résultat, que même les experts du domaine ne parviennent pas à comprendre comment ni pourquoi ils prennent ces décisions. C’est ce que l’on appelle souvent le problème de la boîte noire – que l’IA explicable vise à résoudre.
En quoi l’IA explicable est-elle si importante ? Quels sont les défis liés à sa mise en œuvre ? Et quels sont les éléments clés à rechercher dans une solution alimentée par l’IA ?
Qu’est-ce que l’IA explicable, et pourquoi est-elle essentielle ?
L’IA explicable est un aspect de l’intelligence artificielle visant à rendre l’IA plus transparente et plus compréhensible, et se traduisant par une plus grande confiance de la part des équipes qui en bénéficient. Dans un monde parfait, un modèle d’IA robuste exécute des tâches complexes pendant que les utilisateurs observent le processus de décision et contrôlent les erreurs et les problèmes.
Le besoin de rendre l’IA intelligible est de plus en plus prégnant, tous secteurs et applications confondus. Par exemple, les applications de finance ou de santé vont peut-être devoir remplir des exigences réglementaires impliquant une transparence des outils d’IA. L’une des principales préoccupations dans le développement des véhicules autonomes concerne la sécurité, et la capacité à comprendre un modèle d’IA s’avère ici aussi crucial pour améliorer et maintenir le fonctionnement d’une telle technologie. Souvent, l’IA explicable n’est donc pas qu’une solution de confort – c’est un élément critique des opérations business et des normes du marché.
À mesure que davantage de technologies basées sur IA seront développées et adoptées, davantage de réglementations gouvernementales et industrielles seront aussi promulguées. Dans l’union européenne, par exemple, la loi sur l’IA impose la transparence des algorithmes d’IA, mais son périmètre reste pour l’instant limité. L’IA est un outil si puissant qu’elle continuera sans aucun doute à gagner en popularité et en sophistication, entraînant dans son sillage davantage de réglementations et d’exigences en matière de transparence.
Les modèles d’IA soulèvent également des questionnements en termes de biais et de fiabilité. Les hallucinations de l’IA générative ont beaucoup fait parler d’elles ces derniers temps. Mais les modèles d’IA ont un historique établi de résultats influencés par des critères de race, de genre, etc. Les outils et les pratiques d’IA explicable sont importants pour comprendre et éradiquer ce type de biais, et améliorer ainsi la précision des résultats et l’efficacité des opérations.
En fin de compte, l’IA explicable consiste à rationaliser et améliorer les capacités d’une organisation. Davantage de transparence signifie une meilleure compréhension de la technologie utilisée, de meilleurs diagnostics et davantage d’opportunités d’affûter les outils d’une organisation.
Les défis actuels de l’IA explicable pour les organisations
L’IA explicable peut signifier plusieurs choses, et le terme lui-même s’avère assez difficile à définir. Pour certains, il s’agit d’une méthodologie de design – un pilier fondamental du processus de développement d’un modèle d’IA. L’IA explicable désigne également l’ensemble des fonctionnalités ou des capacités attendues des solutions basées sur IA, comme les arbres de décisions et les tableaux de bord. Le terme peut aussi décrire une manière d’utiliser un outil d’IA dans le respect des principes de transparence. Bien que tous ces exemples d’IA explicable soient valables, son rôle le plus important est de promouvoir l’interprétabilité de l’IA à travers un ensemble d’applications.
L’une des faiblesses des technologies actuelles d’IA explicable est que leur efficacité varie en fonction des modèles. Certains modèles, comme les modèles de deep learning ou basés sur un réseau neuronal, sont denses et complexes, ce qui les rend difficiles à interpréter. À l’inverse, les modèles linéaires et basés sur des arbres de décisions, sont plus facilement compréhensibles et transparents grâce à un processus de décision plus simple via une cartographie de dépendances.
Les méthodologies d’IA explicable en sont toujours à leurs premiers stades de développement. D’ici cinq ans, de nouveaux outils et de nouvelles méthodes auront fait leur apparition pour comprendre les modèles d’IA complexes, même si ces modèles continuent à progresser et à évoluer. À l’heure actuelle, les experts et les fournisseurs de solutions d’IA doivent impérativement continuer leurs efforts pour rendre explicables les applications d’IA, afin de fournir aux organisations des outils d’IA à la fois sûrs, fiables et puissants.
Identifier les éléments clés de l’IA explicable
L’IA explicable est un vaste sujet. Il est donc difficile de lister toutes les caractéristiques qui s’appliqueraient à l’ensemble des solutions d’IA explicables. Certaines approches privilégient des aspects particuliers de la méthodologie plutôt que d’autres, ou ne s’appliquent qu’à certains modèles de machine learning. Néanmoins, toute approche globale de l’IA explicable doit prendre en compte les éléments suivants :
- Interprétabilité. Il est nécessaire d’avoir une fonctionnalité de référence pour interpréter un modèle d’IA. Les prédictions, les décisions et les autres résultats de l’IA doivent être compréhensibles pour un être humain et, au minimum, traçables tout au long du processus de décision du modèle. La profondeur d’interprétabilité dont votre organisation a besoin, va probablement dépendre du modèle que vous devez rendre plus compréhensible et de vos propres cas d’usage.
- Méthodes de communication. Il faut être particulièrement vigilant à la façon dont une solution axée sur une IA explicable communique les informations. De puissants outils de visualisation sont nécessaires pour maximiser les bénéfices d’une méthode d’IA explicable. Les arbres de décisions et les tableaux de bords sont deux méthodes de visualisation assez courantes qui représentent des données complexes dans un format facile à lire. Ces outils peuvent transformer les données en informations concrètes. Là encore, l’utilité des différents outils de visualisation dépend du modèle d’IA.
- Interprétabilité globale vs. locale. Enfin, il est important de distinguer les explications globales et locales. Les explications globales désignent les analyses et les résultats qui donnent aux utilisateurs des informations sur la façon dont le modèle agit dans son ensemble. Il peut s’agir de montrer quelles portions de données sont utilisées pendant une série de tâches, où les systèmes automatisés agissent et ce qu’ils font, etc. Les explications locales correspondent aux informations portant sur les décisions individuelles d’un modèle d’IA. Ces dernières sont importantes pour aider une organisation à comprendre un résultat étrange ou incorrect, ou à disposer d’informations transparentes pour des raisons réglementaires.
L’IA explicable est une branche du développement de technologies d’IA en pleine transformation. Mais cette tendance accrue vers de plus grandes capacités d’explication des modèles a déjà donné naissance à de multiples nouvelles façons d’utiliser l’IA qui peuvent significativement améliorer les performances opérationnelles des organisations.