Actualités : analyse de données, Business Intelligence, Data Science, Big Data


IA Act : vers une intelligence artificielle plus transparente et responsable


Rédigé par Tendü Yoğurtçu, Precisely le 24 Mars 2025

Alors que les premières mesures de l'IA Act sont entrées en application depuis février — notamment avec l'interdiction des systèmes d'IA présentant des risques jugés inacceptables sur le territoire de l'Union européenne — la question de son déploiement et de la gestion des données qui alimentent ces technologies devient cruciale.
L'IA Act aidera les entreprises à mieux appréhender l'importance de la qualité des données utilisées par les systèmes d'intelligence artificielle, garantissant ainsi des résultats plus fiables.



Tendü Yoğurtçu, PhD, Chief Technology Officer chez Precisely
Tendü Yoğurtçu, PhD, Chief Technology Officer chez Precisely
La loi européenne sur l’IA pousse désormais les entreprises à renforcer leur gestion des données pour limiter les biais algorithmiques et assurer leur conformité. Depuis février 2025, les systèmes d’IA classés comme présentant un “risque inacceptable” doivent s’y conformer, tandis que des exigences plus larges pour l’usage général de l’IA entreront en vigueur en août 2025.

Dans le secteur financier, où l’IA joue un rôle clé dans l’évaluation des risques et la détection des fraudes, assurer l’équité et la transparence est essentiel. Pour y parvenir, les organisations doivent concevoir des systèmes d’IA fiables, s’appuyant sur des données d’entraînement représentatives et de haute qualité, tout en surveillant en continu les données d’inférence afin de garantir une prise de décision juste et pertinente.

L’IA est notamment utilisée pour évaluer la solvabilité des demandeurs de prêt. Cependant, si un modèle est entraîné sur des données historiques biaisées ou incomplètes, il peut générer des décisions discriminatoires. Par exemple, un historique de données contenant un nombre disproportionné de défauts de paiement au sein de certains groupes démographiques ou sociographiques risque d’amener le modèle à les classer à tort comme emprunteurs à haut risque. De plus, il est crucial de surveiller les données en temps réel utilisées lors de l’inférence (c’est-à-dire lorsque l’IA prend des décisions) afin d’éviter l’introduction de nouveaux biais ou erreurs. En mettant en place des garde-fous solides en matière de gouvernance et de culture de l’IA, les organisations peuvent identifier les sources de ces biais – souvent liés à une mauvaise gestion des données – et les corriger à la source.

Pour atténuer ces risques, les institutions financières doivent briser les silos de données, notamment lorsque des informations critiques résident sur des systèmes mainframe. En intégrant toutes les données pertinentes, qu’elles soient stockées sur site, dans le cloud ou dans des environnements hybrides, et en les connectant aux différentes fonctions métier, les organisations peuvent améliorer la fiabilité des résultats de l’IA et limiter les biais ainsi que les résultats erronés.

Au-delà de l’intégration, la gouvernance, la qualité et l’observabilité des données doivent être une priorité. L’objectif est de garantir que les informations utilisées par les modèles d’IA soient précises, traçables, conformes et continuellement surveillées. D’ailleurs, selon nos études récentes, 62 % des entreprises identifient la gouvernance des données comme le principal défi des initiatives en IA, et 71 % prévoient d’investir dans des programmes de gouvernance. Le manque de transparence et d’interprétabilité des modèles d’IA demeure une préoccupation majeure, soulevant des questions de biais, d’éthique, de responsabilité et d’équité. À mesure que les organisations industrialisent l’IA de manière responsable, une gouvernance robuste des données et des algorithmes jouera un rôle clé pour concilier conformité réglementaire et adoption éthique de l’IA.

En outre, l’intégration de jeux de données tiers de confiance et d’informations géospatiales peut renforcer la précision des résultats de l’IA en leur apportant un contexte supplémentaire. En enrichissant les modèles avec des jeux de données diversifiés – démographiques, comportementales, environnementales ou encore des informations d’adresses détaillées – les organisations peuvent améliorer l’exactitude et l’équité des décisions pilotées par l’IA.

En définitive, la loi européenne sur l’IA ne se résume pas à une simple exigence de conformité ; elle représente une opportunité de renforcer les cadres d’intégrité des données. À mesure que l’adoption de l’IA progresse, l’alimentation des initiatives d’IA avec des données de haute qualité, intégrées et contextualisées sera un facteur clé de succès à long terme et d’innovation responsable en IA.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store