Yoshua Bengio, la startup d'IA reciTAL et d'autres figures et organisations majeures de l'IA s’opposent à la position du gouvernement français sur le règlement IA européen
Aujourd'hui, SaferAI, une organisation à but non lucratif française impliquée dans les efforts de normalisation européens en matière de gestion des risques de l'IA, annonçons dans une lettre ouverte notre soutien à l'approche défendue par le Parlement européen et la présidence Espagnole pour la régulation par tiers des modèles de fondation dans l'Acte IA de l’UE. Cette lettre ouverte est signée jointement avec d'autres organisations majeures telles que la Fondation Avaaz, la startup d’IA française ReciTAL, le Open Markets Institute ou le Centre pour la démocratie et la technologie, ainsi que des chercheurs en IA et des leaders d'opinion estimés tels que le professeur d’IA émérite de la Sorbonne Raja Chatila, ou le “père de l’IA” Yoshua Bengio.
Publiée par Euractiv aux législateurs européens, nous soulignons dans cette lettre la nécessité d'une approche par tiers pour gérer les risques des modèles de fondation en intelligence artificielle. Tout d’abord, sur le plan économique. Comme le souligne Raja Chatila, professeur émérite à l'Université de la Sorbonne, «Si les modèles de fondation ne sont pas réglementés, les industries qui les utilisent pour développer et fournir des applications spécifiques seront les seules responsables de toute fiabilité défaillante du modèle. Cette situation est injuste. Elle rend ces industries vulnérables et dépendantes des fournisseurs de modèles de fondation. »
Nous évoquons ensuite les raisons pour lesquelles l'approche par tiers est parfaitement adéquate pour atténuer les risques des systèmes les plus puissants. Le deuxième scientifique en IA le plus cité, récemment nommé à la tête du “GIEC de l'IA”, signataire et professeur Yoshua Bengio explique que « les prochaines générations de modèles d'IA de pointe apporteront leurs propres risques avant même d'être déployés sur des applications spécifiques. Ces dommages ne peuvent pas être atténués par une réglementation axée uniquement sur les cas d’usages. »
Ce soutien à l'approche par tiers intervient à un moment critique dans les négociations du trilogue sur l'Acte IA de l'UE, avec plusieurs nations, notamment la France, l'Allemagne et l'Italie, préconisant à la place que les entreprises s'autorégulent dans la création des IA les plus puissantes.
Cela va à contre-courant de la tendance. Dans le sillage des événements dramatiques affectant OpenAI, le développeur de ChatGPT, le professeur émérite et signataire de cette lettre ouverte Gary Marcus souligne que « le chaos chez OpenAI ne fait que souligner l'évidence : nous ne pouvons pas faire confiance aux Big Tech pour s'autoréguler. Réduire des parties critiques du réglement européen à un exercice d'auto-régulation aurait des conséquences désastreuses.»
Points clés :
Profil de risque unique : Les modèles de fondation présentent un profil de risque unique en raison de leur généralité, du coût de leur développement et de leur potentiel en tant que point de défaillance unique pour de nombreuses applications. Ces risques, pas encore pleinement compris et potentiellement affectant des millions de citoyens européens, nécessitent une stratégie complète de gestion des risques.
Responsabilité des développeurs : La réglementation proposée place un degré approprié de responsabilité sur la poignée de développeurs formant des modèles de fondation avancés, moins de 20, car ils sont les seuls à avoir la capacité de résoudre les risques systémiques et failles de sûreté inhérents à ces systèmes. Cette approche est cruciale pour la sauvegarde des citoyens et des industries de l'UE.
Réglementation équilibrée : La proposition espagnole suggère un cadre réglementaire équilibré qui reconnaît l'empreinte mondiale des modèles de fondation. Cela s'aligne avec le leadership réglementaire de l'Europe dans l'IA, établissant un précédent pour la gestion de ces technologies.
Protection pour l'industrie européenne : Non pas un fardeau, cette réglementation offre une protection essentielle pour l'industrie de l'Union Européenne, la protégeant des responsabilités et des risques des modèles de fondation avancés que les petites entreprises n'ont pas les ressources pour gérer.
Innovation et gestion des risques : Les seuils de calcul proposés offrent une base pratique et mesurable pour la réglementation, établissant un équilibre entre innovation et gestion efficace des risques.
Position de SaferAI :
SaferAI plaide pour l'intégration de management du risque directement sur les modèles de fondation dans l'Acte de l'IA de l'UE. Cette intégration représente non seulement une nécessité réglementaire, mais aussi un impératif démocratique, assurant un développement et un déploiement responsables de l'IA à travers l'Europe.
Aujourd'hui, SaferAI, une organisation à but non lucratif française impliquée dans les efforts de normalisation européens en matière de gestion des risques de l'IA, annonçons dans une lettre ouverte notre soutien à l'approche défendue par le Parlement européen et la présidence Espagnole pour la régulation par tiers des modèles de fondation dans l'Acte IA de l’UE. Cette lettre ouverte est signée jointement avec d'autres organisations majeures telles que la Fondation Avaaz, la startup d’IA française ReciTAL, le Open Markets Institute ou le Centre pour la démocratie et la technologie, ainsi que des chercheurs en IA et des leaders d'opinion estimés tels que le professeur d’IA émérite de la Sorbonne Raja Chatila, ou le “père de l’IA” Yoshua Bengio.
Publiée par Euractiv aux législateurs européens, nous soulignons dans cette lettre la nécessité d'une approche par tiers pour gérer les risques des modèles de fondation en intelligence artificielle. Tout d’abord, sur le plan économique. Comme le souligne Raja Chatila, professeur émérite à l'Université de la Sorbonne, «Si les modèles de fondation ne sont pas réglementés, les industries qui les utilisent pour développer et fournir des applications spécifiques seront les seules responsables de toute fiabilité défaillante du modèle. Cette situation est injuste. Elle rend ces industries vulnérables et dépendantes des fournisseurs de modèles de fondation. »
Nous évoquons ensuite les raisons pour lesquelles l'approche par tiers est parfaitement adéquate pour atténuer les risques des systèmes les plus puissants. Le deuxième scientifique en IA le plus cité, récemment nommé à la tête du “GIEC de l'IA”, signataire et professeur Yoshua Bengio explique que « les prochaines générations de modèles d'IA de pointe apporteront leurs propres risques avant même d'être déployés sur des applications spécifiques. Ces dommages ne peuvent pas être atténués par une réglementation axée uniquement sur les cas d’usages. »
Ce soutien à l'approche par tiers intervient à un moment critique dans les négociations du trilogue sur l'Acte IA de l'UE, avec plusieurs nations, notamment la France, l'Allemagne et l'Italie, préconisant à la place que les entreprises s'autorégulent dans la création des IA les plus puissantes.
Cela va à contre-courant de la tendance. Dans le sillage des événements dramatiques affectant OpenAI, le développeur de ChatGPT, le professeur émérite et signataire de cette lettre ouverte Gary Marcus souligne que « le chaos chez OpenAI ne fait que souligner l'évidence : nous ne pouvons pas faire confiance aux Big Tech pour s'autoréguler. Réduire des parties critiques du réglement européen à un exercice d'auto-régulation aurait des conséquences désastreuses.»
Points clés :
Profil de risque unique : Les modèles de fondation présentent un profil de risque unique en raison de leur généralité, du coût de leur développement et de leur potentiel en tant que point de défaillance unique pour de nombreuses applications. Ces risques, pas encore pleinement compris et potentiellement affectant des millions de citoyens européens, nécessitent une stratégie complète de gestion des risques.
Responsabilité des développeurs : La réglementation proposée place un degré approprié de responsabilité sur la poignée de développeurs formant des modèles de fondation avancés, moins de 20, car ils sont les seuls à avoir la capacité de résoudre les risques systémiques et failles de sûreté inhérents à ces systèmes. Cette approche est cruciale pour la sauvegarde des citoyens et des industries de l'UE.
Réglementation équilibrée : La proposition espagnole suggère un cadre réglementaire équilibré qui reconnaît l'empreinte mondiale des modèles de fondation. Cela s'aligne avec le leadership réglementaire de l'Europe dans l'IA, établissant un précédent pour la gestion de ces technologies.
Protection pour l'industrie européenne : Non pas un fardeau, cette réglementation offre une protection essentielle pour l'industrie de l'Union Européenne, la protégeant des responsabilités et des risques des modèles de fondation avancés que les petites entreprises n'ont pas les ressources pour gérer.
Innovation et gestion des risques : Les seuils de calcul proposés offrent une base pratique et mesurable pour la réglementation, établissant un équilibre entre innovation et gestion efficace des risques.
Position de SaferAI :
SaferAI plaide pour l'intégration de management du risque directement sur les modèles de fondation dans l'Acte de l'IA de l'UE. Cette intégration représente non seulement une nécessité réglementaire, mais aussi un impératif démocratique, assurant un développement et un déploiement responsables de l'IA à travers l'Europe.