A l’occasion de Microsoft experiences18, qui se déroule les 6 et 7 novembre au Palais des Congrès de Paris, le collectif de réflexion et d’actions Impact AI, lancé à l’initiative de Microsoft en mars dernier et constitué d’un ensemble d’acteurs sensibles aux enjeux de l’intelligence artificielle, a présenté les résultats du 1er Observatoire de la Notoriété et de l’Image de l’Intelligence Artificielle en France. Réalisé par l’IFOP, cette première édition, allant à l’encontre de bien des idées reçues, souligne la confiance spontanée des Français en cette nouvelle technologie. Des résultats encourageants sur lesquels le collectif va pouvoir s’appuyer pour définir les actions de ses quatre groupes de travail : IA Responsable, Education, Observatoire et AI for Good et accélérer ainsi le déploiement d’une Intelligence éthique et responsable en France.
Des résultats à l’encontre des idées reçues pour cette 1ère édition de l’Observatoire
Parmi les principaux enseignements de l’Observatoire de la Notoriété et de l’Image de l’Intelligence Artificielle en France figurent trois chiffres positifs, qui vont à l’encontre des discours ambiants :
88% des Français interrogés ont déjà entendu parler de l’Intelligence Artificielle et près de la moitié (48%) savent précisément de quoi il s’agit ;
Près des trois quarts (73%) des Français qui ont déjà entendu parler d’IA en ont une bonne image, et ont confiance (63%). Ils l’associent à une intelligence autonome capable d’apprentissage (30%), à la robotique (21%) ainsi qu’à la simplification des tâches et à l’aide qu’elle peut apporter aux humains (9%) ;
Seule une minorité d’entre eux la qualifie spontanément de menaçante (5%) voire de dangereuse (1%).
La bonne image de l’Intelligence Artificielle repose principalement sur son aspect utile (à 49%), pratique et facilitateur au quotidien (51%). A l’inverse, et dans une moindre mesure, les principales sources de méfiance spontanément évoquées par les Français ayant une mauvaise image de l’IA résident dans une déshumanisation de la relation (6%) ainsi qu’à leur peur qu’elle remplace l’humain pour certains emplois (17%). D’ailleurs, 62% des personnes interrogées souhaiteraient être davantage sensibilisées sur les conséquences et les applications pratiques de l’Intelligence Artificielle dans leur quotidien professionnel.
Paradoxe apparent en matière d’usage : son utilisation est bien plus fréquente dans le quotidien des Français qu’ils ne le pensent spontanément. Ainsi, si seulement 21% des personnes interrogées reconnaissent avoir déjà utilisé des produits ou services intelligents, ils sont plus de la moitié à avoir déjà eu recours à un assistant vocal depuis un smartphone ou une tablette (50%) ou à une application permettant de corriger ou de compléter un texte sur ces mêmes écrans (70%).
« Face à une technologie émergente, les Français fondent leur avis sur une comparaison avec d’autres innovations qu’ils ont pu voir se mettre en place, à commencer par l’automatisation et la robotisation au cours des années 70 et ce, même si ces technologies sont de nature différente » souligne Jérôme Fourquet, Directeur du département Opinion et Stratégies d’entreprise d’IFOP. « C’est ce qui explique qu’ils redoutent d’avantage un impact de l’Intelligence Artificielle sur l’emploi qu’une possible prise de contrôle sur l’esprit humain si souvent véhiculée par la littérature ou le cinéma. Il n’en reste pas moins que les Français affichent globalement une confiance pragmatique dans le développement d’une Intelligence Artificielle qu’ils ont commencé à s’approprier mais dont ils ont encore du mal à appréhender l’ensemble des opportunités qu’elle va offrir au quotidien. »
Un Observatoire lancé dans le cadre d’Impact AI, 1er collectif de réflexion et d’actions autour de l’IA en France
L’Observatoire dévoilé aujourd’hui s’inscrit dans le cadre des premières initiatives d’Impact AI, collectif de réflexion et d’actions lancé en mars dernier. Doté d’un statut d’association à but non lucratif, Impact AI est constitué de trente membres fondateurs partageant une vision et une ambition commune : être le référent sur l’Intelligence Artificielle éthique en France et avoir le plus d’impact positif sur le développement d’une IA mise au service du plus grand nombre. Dans ce cadre, Impact AI s’est assigné un double objectif :
Traiter des enjeux éthiques et sociétaux de l’Intelligence Artificielle,
Soutenir le déploiement de projets innovants et positifs pour le monde de demain.
« Annoncé au printemps dernier, le collectif Impact AI a, depuis lors, beaucoup travaillé pour définir ses axes prioritaires et pouvoir contribuer activement au développement d’une Intelligence Artificielle éthique et responsable en France » se félicite Laurence Lafont, Présidente du Collectif Impact AI et directrice Marketing et Opérations de Microsoft. « En tant que collectif, nous souhaitons promouvoir et soutenir la réalisation de projets favorisant l’usage d’une IA reposant sur des principes qui instillent la confiance et permettant aux utilisateurs de garder le contrôle. »
Le collectif estime en effet qu’il faut pouvoir poser des cadres, mener des recherches, soutenir les projets éthiques et proposer des formations indispensables via une approche collective et systémique qui réponde aux attentes et aux besoins des citoyens.
Impact AI s’est ainsi organisé en 4 groupes de travail qui, forts des enseignements de l’Observatoire de la Notoriété et de l’Image de l’Intelligence Artificielle en France vont déployer un certain nombre d’initiatives :
Le groupe IA responsable dont la mission est de développer un cadre éthique des usages de l’Intelligence Artificielle répondant à des critères simples, lisibles et réplicables par le plus grand nombre, va mettre en place un référencement et une mise à disposition d’outils de gouvernance (charte et formations sur l’IA & l’éthique) favorisant un usage responsable de l’IA et s’attachera à en vérifier la pertinence dans le temps.
Dr Cécile Wendling, Group Head of Foresight d’AXA : « L’IA responsable signifie aller au-delà des principes et réfléchir à des engagements concrets à mettre en action. Nous travaillons donc sur une bibliothèque en ligne d’outils d’IA responsable (outils techniques et de gouvernance) »
Le groupe Education a d’ores et déjà élaboré une cartographie de formations « Open Source », diplômantes ou non. Ce groupe de travail a également déjà défini une dizaine de scénarii et parcours d’ateliers d’initiation basés sur l’exemple et les cas concrets à l’attention des plus jeunes, des étudiants, des managers comme des seniors. Un observatoire des besoins a enfin été mis en place pour étudier comment l’IA peut accompagner et apporter de la valeur dans les métiers et les secteurs en forte transformation.
Fabien Seraidarian, Doyen associé à l’Innovation et directeur du K Center, Skema : « Où en est-on dans l’apprentissage de l’intelligence artificielle ? Pour quels usages ? Le volet Education du projet Impact AI s’intéresse à la compréhension des concepts et des notions, dresse une cartographie des formations et caractérise les nouvelles compétences qui réinterrogent les fonctions et les métiers ».
Le groupe Observatoire, dont la vocation est de mener des études telles que celle présentée aujourd’hui, observera l’évolution des perceptions autour de l’IA au sein de la société française, afin de définir des orientations et des recommandations d’actions à déployer au sein du collectif. Ce groupe de travail mènera également des sessions, des tables rondes ainsi que des ateliers participatifs pour contribuer à sensibiliser à l’importance de voir se développer une IA éthique et de confiance.
Stéphane Richard, président-directeur général (PDG) d’Orange « au-delà de notre rôle d’acteur de la révolution numérique avec nos technologies, nos réseaux et nos services, il nous apparaît nécessaire de trouver un espace pour réfléchir aux conséquences du numérique sur nos vies, la société, les individus, les familles ».
Le Groupe AI for Good, a pour objectif de proposer aux associations et aux entrepreneurs sociaux les ressources et les moyens afin de déployer des projets d’IA à fort impact sociétal en matière de santé, d’inclusion sociale, d’accessibilité, d’environnement, d’éducation et des droits de l’homme. Les projets seront sélectionnés selon 3 critères principaux : leur impact potentiel, l’ampleur de la problématique adressée et le caractère stratégique et innovant de l’application de l’IA.
Des résultats à l’encontre des idées reçues pour cette 1ère édition de l’Observatoire
Parmi les principaux enseignements de l’Observatoire de la Notoriété et de l’Image de l’Intelligence Artificielle en France figurent trois chiffres positifs, qui vont à l’encontre des discours ambiants :
88% des Français interrogés ont déjà entendu parler de l’Intelligence Artificielle et près de la moitié (48%) savent précisément de quoi il s’agit ;
Près des trois quarts (73%) des Français qui ont déjà entendu parler d’IA en ont une bonne image, et ont confiance (63%). Ils l’associent à une intelligence autonome capable d’apprentissage (30%), à la robotique (21%) ainsi qu’à la simplification des tâches et à l’aide qu’elle peut apporter aux humains (9%) ;
Seule une minorité d’entre eux la qualifie spontanément de menaçante (5%) voire de dangereuse (1%).
La bonne image de l’Intelligence Artificielle repose principalement sur son aspect utile (à 49%), pratique et facilitateur au quotidien (51%). A l’inverse, et dans une moindre mesure, les principales sources de méfiance spontanément évoquées par les Français ayant une mauvaise image de l’IA résident dans une déshumanisation de la relation (6%) ainsi qu’à leur peur qu’elle remplace l’humain pour certains emplois (17%). D’ailleurs, 62% des personnes interrogées souhaiteraient être davantage sensibilisées sur les conséquences et les applications pratiques de l’Intelligence Artificielle dans leur quotidien professionnel.
Paradoxe apparent en matière d’usage : son utilisation est bien plus fréquente dans le quotidien des Français qu’ils ne le pensent spontanément. Ainsi, si seulement 21% des personnes interrogées reconnaissent avoir déjà utilisé des produits ou services intelligents, ils sont plus de la moitié à avoir déjà eu recours à un assistant vocal depuis un smartphone ou une tablette (50%) ou à une application permettant de corriger ou de compléter un texte sur ces mêmes écrans (70%).
« Face à une technologie émergente, les Français fondent leur avis sur une comparaison avec d’autres innovations qu’ils ont pu voir se mettre en place, à commencer par l’automatisation et la robotisation au cours des années 70 et ce, même si ces technologies sont de nature différente » souligne Jérôme Fourquet, Directeur du département Opinion et Stratégies d’entreprise d’IFOP. « C’est ce qui explique qu’ils redoutent d’avantage un impact de l’Intelligence Artificielle sur l’emploi qu’une possible prise de contrôle sur l’esprit humain si souvent véhiculée par la littérature ou le cinéma. Il n’en reste pas moins que les Français affichent globalement une confiance pragmatique dans le développement d’une Intelligence Artificielle qu’ils ont commencé à s’approprier mais dont ils ont encore du mal à appréhender l’ensemble des opportunités qu’elle va offrir au quotidien. »
Un Observatoire lancé dans le cadre d’Impact AI, 1er collectif de réflexion et d’actions autour de l’IA en France
L’Observatoire dévoilé aujourd’hui s’inscrit dans le cadre des premières initiatives d’Impact AI, collectif de réflexion et d’actions lancé en mars dernier. Doté d’un statut d’association à but non lucratif, Impact AI est constitué de trente membres fondateurs partageant une vision et une ambition commune : être le référent sur l’Intelligence Artificielle éthique en France et avoir le plus d’impact positif sur le développement d’une IA mise au service du plus grand nombre. Dans ce cadre, Impact AI s’est assigné un double objectif :
Traiter des enjeux éthiques et sociétaux de l’Intelligence Artificielle,
Soutenir le déploiement de projets innovants et positifs pour le monde de demain.
« Annoncé au printemps dernier, le collectif Impact AI a, depuis lors, beaucoup travaillé pour définir ses axes prioritaires et pouvoir contribuer activement au développement d’une Intelligence Artificielle éthique et responsable en France » se félicite Laurence Lafont, Présidente du Collectif Impact AI et directrice Marketing et Opérations de Microsoft. « En tant que collectif, nous souhaitons promouvoir et soutenir la réalisation de projets favorisant l’usage d’une IA reposant sur des principes qui instillent la confiance et permettant aux utilisateurs de garder le contrôle. »
Le collectif estime en effet qu’il faut pouvoir poser des cadres, mener des recherches, soutenir les projets éthiques et proposer des formations indispensables via une approche collective et systémique qui réponde aux attentes et aux besoins des citoyens.
Impact AI s’est ainsi organisé en 4 groupes de travail qui, forts des enseignements de l’Observatoire de la Notoriété et de l’Image de l’Intelligence Artificielle en France vont déployer un certain nombre d’initiatives :
Le groupe IA responsable dont la mission est de développer un cadre éthique des usages de l’Intelligence Artificielle répondant à des critères simples, lisibles et réplicables par le plus grand nombre, va mettre en place un référencement et une mise à disposition d’outils de gouvernance (charte et formations sur l’IA & l’éthique) favorisant un usage responsable de l’IA et s’attachera à en vérifier la pertinence dans le temps.
Dr Cécile Wendling, Group Head of Foresight d’AXA : « L’IA responsable signifie aller au-delà des principes et réfléchir à des engagements concrets à mettre en action. Nous travaillons donc sur une bibliothèque en ligne d’outils d’IA responsable (outils techniques et de gouvernance) »
Le groupe Education a d’ores et déjà élaboré une cartographie de formations « Open Source », diplômantes ou non. Ce groupe de travail a également déjà défini une dizaine de scénarii et parcours d’ateliers d’initiation basés sur l’exemple et les cas concrets à l’attention des plus jeunes, des étudiants, des managers comme des seniors. Un observatoire des besoins a enfin été mis en place pour étudier comment l’IA peut accompagner et apporter de la valeur dans les métiers et les secteurs en forte transformation.
Fabien Seraidarian, Doyen associé à l’Innovation et directeur du K Center, Skema : « Où en est-on dans l’apprentissage de l’intelligence artificielle ? Pour quels usages ? Le volet Education du projet Impact AI s’intéresse à la compréhension des concepts et des notions, dresse une cartographie des formations et caractérise les nouvelles compétences qui réinterrogent les fonctions et les métiers ».
Le groupe Observatoire, dont la vocation est de mener des études telles que celle présentée aujourd’hui, observera l’évolution des perceptions autour de l’IA au sein de la société française, afin de définir des orientations et des recommandations d’actions à déployer au sein du collectif. Ce groupe de travail mènera également des sessions, des tables rondes ainsi que des ateliers participatifs pour contribuer à sensibiliser à l’importance de voir se développer une IA éthique et de confiance.
Stéphane Richard, président-directeur général (PDG) d’Orange « au-delà de notre rôle d’acteur de la révolution numérique avec nos technologies, nos réseaux et nos services, il nous apparaît nécessaire de trouver un espace pour réfléchir aux conséquences du numérique sur nos vies, la société, les individus, les familles ».
Le Groupe AI for Good, a pour objectif de proposer aux associations et aux entrepreneurs sociaux les ressources et les moyens afin de déployer des projets d’IA à fort impact sociétal en matière de santé, d’inclusion sociale, d’accessibilité, d’environnement, d’éducation et des droits de l’homme. Les projets seront sélectionnés selon 3 critères principaux : leur impact potentiel, l’ampleur de la problématique adressée et le caractère stratégique et innovant de l’application de l’IA.
Autres articles
-
Semarchy devient partenaire Microsoft Purview pour l’intégration du Master Data Management
-
Le workload Teradata AI Unlimited sur Microsoft Fabric est désormais disponible en avant-première privée
-
Dremio Cloud, solution de Data Lakehouse permettant d’accéder et de diffuser les données en self-service, est désormais disponible sur Microsoft Azure
-
Rivery intègre Microsoft Entra ID pour un provisionnement automatisé des utilisateurs
-
Du nouveau dans la Microsoft Intelligent Data Platform