Sara Faatz, Director of Technology Community Relations, Progress
La réponse courte est que les progrès récents, notamment en matière d’IA générative, l’ont démocratisée. Lorsqu'OpenAI a offer un aperçu gratuit de ChatGPT en décembre 2022 et a reçu plus d'un million d'inscriptions au cours des cinq premiers jours. Un million. L’IA n’est plus seulement un outil destiné aux data scientists ou aux développeurs. Grâce à des outils comme ChatGPT, nous approchons rapidement d'un monde où chacun peut exploiter la puissance de l'IA pour résoudre des problèmes complexes, automatiser des tâches et débloquer de nouvelles opportunités.
Aujourd’hui, l’IA est capable de fournir une personnalisation avancée, des analyses approfondies et des informations stratégiques sur les expériences numériques. En combinaison avec des interfaces intuitives et élégantes qui permettent une interaction transparente avec celui-ci et avec les ensembles de données riches et diversifiés qui l'alimentent, il est possible de proposer des expériences numériques qualitatives aux utilisateurs finaux.
Alors que les entreprises réfléchissent probablement à la manière dont elles peuvent tirer parti de l’IA pour améliorer l’expérience numérique, il est important de s’assurer qu’elles n’envisagent pas seulement l’IA, mais aussi l’IA éthique. On peut commencer par créer une stratégie d’IA pour l’expérience numérique qui atténue les préjugés inconscients et qui soutient l’établissement d’une réglementation.
Comment éviter les biais de données ?
Selon une étude mondiale commandée par Progress, 66 % des entreprises sont aujourd'hui confrontées à des biais dans les données et 78 % craignent que les biais dans les données ne deviennent un problème plus important à mesure que l'utilisation de l'IA/ML augmente.
L'IA générative s'appuie fortement sur la qualité des modèles de formation pour la génération de contenu. Une conservation minutieuse des données de formation est essentielle pour garantir qu'elles représentent la diversité de la base d'utilisateurs et des cas d'utilisation que l'IA générative rencontrera. Cela est particulièrement crucial étant donné le potentiel de l’IA à perpétuer des préjugés, qui peuvent avoir un impact négatif sur les groupes marginalisés. L'intégration de l'IA générative dans l’expérience numérique devrait servir à promouvoir un environnement numérique inclusif et accessible en atténuant les préjugés.
La collecte de données provenant d'un large éventail de sources démographiques, géographiques et d'autres facteurs pertinents permet d'intégrer la diversité dans les données de formation. Parce que, par définition, les préjugés ne sont pas quelque chose dont on est conscient, les outils automatisés peuvent aider à détecter et à atténuer les biais dans les données de formation. Certaines entreprises utilisent des algorithmes d'apprentissage automatique (ML) pour identifier et supprimer le langage biaisé des ensembles de données textuelles, tandis que d'autres emploient des techniques statistiques pour reconnaître et corriger les disparités dans la représentation démographique.
Comment s'y retrouver en matière de réglementations ?
Comme cela arrive souvent avec une technologie rapidement adoptée, la réglementation n’a pas rattrapé son retard. Si un outil d’IA générative parcourt le Web pour entraîner son grand modèle de langage (LLM), à qui appartient la sortie des données de l’IA générative ?
Si un LLM consomme et partage du code open source aujourd'hui, mais que le responsable de ce code retire son consentement au LLM pour le traiter, l'équipe de développement qui a implémenté ce code à partir d'une IA générative se retrouve-t-elle confrontée à un énorme problème ?
Ces questions ne sont que quelques exemples de ce à quoi la réglementation et la surveillance gouvernementales cherchent à répondre.
La bonne nouvelle est que l’UE élabore actuellement la loi sur l’intelligence artificielle afin d’améliorer les réglementations concernant la qualité des données, la transparence, la surveillance humaine et la responsabilité, en répondant aux préoccupations éthiques et aux problèmes de mise en œuvre. D’autres pays et entités gouvernementales emboîteront probablement le pas.
En l'absence de réglementation, il est impératif d’informer sur le type d'IA mise en œuvre, afin de comprendre où une réglementation pourrait être mise en place à l'avenir et s’assurer que l’équipe met en place des garde-fous pour protéger les données que le LLM exploite.
Les progrès de l’IA apportent d’énormes améliorations à l’expérience numérique. Atténuer les préjugés et se renseigner sur la réglementation en cours de création tout en étant avant-gardiste sur la réglementation dont on pourrait avoir besoin permettra de proposer des expériences qui auront non seulement un impact significatif sur l’utilisateur final, mais qui seront également éthiques.
Aujourd’hui, l’IA est capable de fournir une personnalisation avancée, des analyses approfondies et des informations stratégiques sur les expériences numériques. En combinaison avec des interfaces intuitives et élégantes qui permettent une interaction transparente avec celui-ci et avec les ensembles de données riches et diversifiés qui l'alimentent, il est possible de proposer des expériences numériques qualitatives aux utilisateurs finaux.
Alors que les entreprises réfléchissent probablement à la manière dont elles peuvent tirer parti de l’IA pour améliorer l’expérience numérique, il est important de s’assurer qu’elles n’envisagent pas seulement l’IA, mais aussi l’IA éthique. On peut commencer par créer une stratégie d’IA pour l’expérience numérique qui atténue les préjugés inconscients et qui soutient l’établissement d’une réglementation.
Comment éviter les biais de données ?
Selon une étude mondiale commandée par Progress, 66 % des entreprises sont aujourd'hui confrontées à des biais dans les données et 78 % craignent que les biais dans les données ne deviennent un problème plus important à mesure que l'utilisation de l'IA/ML augmente.
L'IA générative s'appuie fortement sur la qualité des modèles de formation pour la génération de contenu. Une conservation minutieuse des données de formation est essentielle pour garantir qu'elles représentent la diversité de la base d'utilisateurs et des cas d'utilisation que l'IA générative rencontrera. Cela est particulièrement crucial étant donné le potentiel de l’IA à perpétuer des préjugés, qui peuvent avoir un impact négatif sur les groupes marginalisés. L'intégration de l'IA générative dans l’expérience numérique devrait servir à promouvoir un environnement numérique inclusif et accessible en atténuant les préjugés.
La collecte de données provenant d'un large éventail de sources démographiques, géographiques et d'autres facteurs pertinents permet d'intégrer la diversité dans les données de formation. Parce que, par définition, les préjugés ne sont pas quelque chose dont on est conscient, les outils automatisés peuvent aider à détecter et à atténuer les biais dans les données de formation. Certaines entreprises utilisent des algorithmes d'apprentissage automatique (ML) pour identifier et supprimer le langage biaisé des ensembles de données textuelles, tandis que d'autres emploient des techniques statistiques pour reconnaître et corriger les disparités dans la représentation démographique.
Comment s'y retrouver en matière de réglementations ?
Comme cela arrive souvent avec une technologie rapidement adoptée, la réglementation n’a pas rattrapé son retard. Si un outil d’IA générative parcourt le Web pour entraîner son grand modèle de langage (LLM), à qui appartient la sortie des données de l’IA générative ?
Si un LLM consomme et partage du code open source aujourd'hui, mais que le responsable de ce code retire son consentement au LLM pour le traiter, l'équipe de développement qui a implémenté ce code à partir d'une IA générative se retrouve-t-elle confrontée à un énorme problème ?
Ces questions ne sont que quelques exemples de ce à quoi la réglementation et la surveillance gouvernementales cherchent à répondre.
La bonne nouvelle est que l’UE élabore actuellement la loi sur l’intelligence artificielle afin d’améliorer les réglementations concernant la qualité des données, la transparence, la surveillance humaine et la responsabilité, en répondant aux préoccupations éthiques et aux problèmes de mise en œuvre. D’autres pays et entités gouvernementales emboîteront probablement le pas.
En l'absence de réglementation, il est impératif d’informer sur le type d'IA mise en œuvre, afin de comprendre où une réglementation pourrait être mise en place à l'avenir et s’assurer que l’équipe met en place des garde-fous pour protéger les données que le LLM exploite.
Les progrès de l’IA apportent d’énormes améliorations à l’expérience numérique. Atténuer les préjugés et se renseigner sur la réglementation en cours de création tout en étant avant-gardiste sur la réglementation dont on pourrait avoir besoin permettra de proposer des expériences qui auront non seulement un impact significatif sur l’utilisateur final, mais qui seront également éthiques.
Autres articles
-
Data Mesh, Data Fabric et Knowledge Graphs : comment traiter les données pour générer des profits ?
-
Le Machine Learning et l’IA
-
Progress annonce de nouvelles et puissantes fonctionnalités d'IA générative dans sa dernière version de MarkLogic Server
-
La nouvelle version de Progress Semaphore propose une modélisation des connaissances assistée par l'IA
-
Progress présente MarkLogic FastTrack, pour la création d’interfaces graphiques directement connectées aux données de la plateforme de données Progress MarkLogic