Veritas Technologies, un des principaux acteurs de la gestion sécurisée de données multicloud, publie aujourd’hui les résultats et conclusions de sa dernière étude internationale sur l’utilisation des outils d’intelligence artificielle générative (tels que ChatGPT, Bard et autres) par les employés de bureau. Les résultats en France sont fondés sur un échantillon de 1 000 personnes.
Si la moitié de ces salariés français (50 %) déclare se servir des outils d’IA tels que ChatGPT au moins une fois par semaine, certains reconnaissent les utiliser de façon inadaptée. En effet, certains utilisateurs peuvent parfois (consciemment ou non) aller à l’encontre des règles et chartes de leur entreprise – quitte à divulguer des informations confidentielles et/ou stratégiques à des services externes. Par ailleurs, que ce soit par manque de directive, d’appétence pour l’outil ou par méfiance envers cette nouvelle technologie, 32 % des salariés n’ont en revanche jamais utilisé ce type de service.
Un outil de productivité déjà banal mais mal encadré
Alors qu’en France 50 % des répondants déclarent utiliser ces outils au moins une fois par semaine au travail, 63 % l’utiliseraient au moins une fois par mois. Toutefois, si certains employés pensent en faire bon usage et respectent les règles de leur entreprise, les Français sont partagés quant au comportement à adopter face à des personnes qui l’utiliseraient mal. Ainsi, 28 % pensent que leurs collègues les plus aguerris sur le sujet devraient être contraints de former les autres. 27 % envisageraient de les dénoncer à leur hiérarchie, ou encore que 32 % pensent que les utilisateurs devraient dans certains cas tomber sous le coup de sanctions disciplinaires.
Pour les employés de bureau français, l’IA générative a comme usage principal de gagner en productivité et en rapidité dans leurs missions quotidiennes. Ils l’utilisent pour avoir un accès plus rapide à l’information (44 %) ou pour automatiser des tâches élémentaires (39 %). Par ailleurs, ils estiment également que ces outils permettent d’accroître leur productivité (32 %), de générer de nouvelles idées (25 %) ou encore de trouver des conseils sur les défis liés au travail (14 %).
Face à cette innovation et ces possibilités, les répondants français souhaitent qu’une réglementation dédiée à l’IA voie le jour : ils sont 77 % à souhaiter qu’un cadre législatif national ou international soit établi en la matière. À l’heure où le projet d’AI Act a été adopté par le Parlement européen, il semblerait que cette revendication ait trouvé un écho auprès des politiques, mais le chemin est encore long côté entreprise. Si 56 % des salariés français déclarent que leur employeur a déjà partagé des recommandations ou des règles d’utilisation dédiés aux outils d’IA générative tels que ChatGPT et Bard (contre 26 % pour les salariés à travers le monde), ils sont 68 % seulement à les avoir compris. 8 % déclarent ne même pas les avoir consultés.
Sonya Duffin, Solutions Lead chez Veritas, commente : « En l’absence de règles et de cadre d’utilisation de l’IA générative émis par leurs dirigeants, certains salariés peuvent mal utiliser les outils et mettre en péril les entreprises via leurs données. En utilisant des données sensibles pour actionner des services d’IA génératives, les employées fragilisent la position de conformité vis-à-vis des réglementations telles que le RGPD et/ou ouvrent des brèches de sécurité. Par ailleurs, certains salariés craignent d’utiliser ces outils, et les entreprises qui les emploient pourraient passer à côté d’opportunités. Ces deux problèmes peuvent être résolus grâce à des lignes directrices et des politiques efficaces en matière d’IA générative sur ce qui est acceptable et ce qui ne l’est pas. »
IA : une perception française en demi-teinte ?
En France, 17 % des salariés de bureau utiliseraient ces outils pour écrire des rapports d’entreprise, 12 % pour prendre des décisions commerciales, stratégiques ou liées à la clientèle, et 11 % pour échanger avec leurs clients. Contraires aux politiques de l’entreprise (lorsqu’il y en a), ces pratiques soulèvent de nombreuses questions sur leur impact sur la sécurité de l’entreprise, sa performance ou même éventuellement la crédibilité des salariés.
Résultats français relatifs à l'utilisation de l'IA générative au travail
Outre les enjeux de confidentialité des données, l’étude interroge également la place de ces nouvelles technologies dans la réalisation du travail. En effet, les résultats français indiquent que 65 % des salariés pensent qu’une partie de leur travail peut être fait par une IA. Quand on les interroge sur la proportion de tâches que cela peut représenter, 41 % répondent que 11 à 25 % de leurs missions pourraient être concernées, et pour un tiers d’entre eux cela oscillerait entre 26 et 50 %. On peut supposer que les Français gardent une part d’optimisme et estiment, qu’à l’heure actuelle, ils ont encore leur place et leur valeur ajoutée.
Enfin, l’étude a interrogé les craintes des répondants vis-à-vis de l’impact de l’IA sur leur productivité. 20 % des Français interrogés pensent que l’utilisation de l’IA générative (telle que ChatGPT) est un frein à la créativité, et 25 % pensent que cela peut les faire passer pour des paresseux ou des tricheurs auprès de leur patron ou collègues. Pire encore : plus d’un quart des salariés (27 %) estime que l’utilisation de ces outils d’IA générative prouverait à l’employeur qu’il n’a pas besoin du salarié utilisateur.
Daniel de Prezzo, Head of Technology Southern Europe chez Veritas Technologies partage son analyse : « Le message est clair : les entreprises doivent définir des lignes directrices et des politiques sur l’utilisation appropriée de l’IA générative et les communiquer efficacement. En associant ces règles à des outils de conformité et de gouvernance des données adéquats, les entreprises pourront s’assurer de leur mise en œuvre et de leur application en continu. Vos employés vous remercieront et votre entreprise pourra profiter des avantages en limitant les risques. »
Méthodologie de l’étude
L'étude a été conduite par 3Gem à travers 11 pays sur un échantillon de 11 500 répondants, travaillant dans un bureau, principalement sur un ordinateur. En France, 1 000 personnes ont été interrogées. La phase de collecte des données a été finalisée le 13 décembre 2023.
Si la moitié de ces salariés français (50 %) déclare se servir des outils d’IA tels que ChatGPT au moins une fois par semaine, certains reconnaissent les utiliser de façon inadaptée. En effet, certains utilisateurs peuvent parfois (consciemment ou non) aller à l’encontre des règles et chartes de leur entreprise – quitte à divulguer des informations confidentielles et/ou stratégiques à des services externes. Par ailleurs, que ce soit par manque de directive, d’appétence pour l’outil ou par méfiance envers cette nouvelle technologie, 32 % des salariés n’ont en revanche jamais utilisé ce type de service.
Un outil de productivité déjà banal mais mal encadré
Alors qu’en France 50 % des répondants déclarent utiliser ces outils au moins une fois par semaine au travail, 63 % l’utiliseraient au moins une fois par mois. Toutefois, si certains employés pensent en faire bon usage et respectent les règles de leur entreprise, les Français sont partagés quant au comportement à adopter face à des personnes qui l’utiliseraient mal. Ainsi, 28 % pensent que leurs collègues les plus aguerris sur le sujet devraient être contraints de former les autres. 27 % envisageraient de les dénoncer à leur hiérarchie, ou encore que 32 % pensent que les utilisateurs devraient dans certains cas tomber sous le coup de sanctions disciplinaires.
Pour les employés de bureau français, l’IA générative a comme usage principal de gagner en productivité et en rapidité dans leurs missions quotidiennes. Ils l’utilisent pour avoir un accès plus rapide à l’information (44 %) ou pour automatiser des tâches élémentaires (39 %). Par ailleurs, ils estiment également que ces outils permettent d’accroître leur productivité (32 %), de générer de nouvelles idées (25 %) ou encore de trouver des conseils sur les défis liés au travail (14 %).
Face à cette innovation et ces possibilités, les répondants français souhaitent qu’une réglementation dédiée à l’IA voie le jour : ils sont 77 % à souhaiter qu’un cadre législatif national ou international soit établi en la matière. À l’heure où le projet d’AI Act a été adopté par le Parlement européen, il semblerait que cette revendication ait trouvé un écho auprès des politiques, mais le chemin est encore long côté entreprise. Si 56 % des salariés français déclarent que leur employeur a déjà partagé des recommandations ou des règles d’utilisation dédiés aux outils d’IA générative tels que ChatGPT et Bard (contre 26 % pour les salariés à travers le monde), ils sont 68 % seulement à les avoir compris. 8 % déclarent ne même pas les avoir consultés.
Sonya Duffin, Solutions Lead chez Veritas, commente : « En l’absence de règles et de cadre d’utilisation de l’IA générative émis par leurs dirigeants, certains salariés peuvent mal utiliser les outils et mettre en péril les entreprises via leurs données. En utilisant des données sensibles pour actionner des services d’IA génératives, les employées fragilisent la position de conformité vis-à-vis des réglementations telles que le RGPD et/ou ouvrent des brèches de sécurité. Par ailleurs, certains salariés craignent d’utiliser ces outils, et les entreprises qui les emploient pourraient passer à côté d’opportunités. Ces deux problèmes peuvent être résolus grâce à des lignes directrices et des politiques efficaces en matière d’IA générative sur ce qui est acceptable et ce qui ne l’est pas. »
IA : une perception française en demi-teinte ?
En France, 17 % des salariés de bureau utiliseraient ces outils pour écrire des rapports d’entreprise, 12 % pour prendre des décisions commerciales, stratégiques ou liées à la clientèle, et 11 % pour échanger avec leurs clients. Contraires aux politiques de l’entreprise (lorsqu’il y en a), ces pratiques soulèvent de nombreuses questions sur leur impact sur la sécurité de l’entreprise, sa performance ou même éventuellement la crédibilité des salariés.
Résultats français relatifs à l'utilisation de l'IA générative au travail
Outre les enjeux de confidentialité des données, l’étude interroge également la place de ces nouvelles technologies dans la réalisation du travail. En effet, les résultats français indiquent que 65 % des salariés pensent qu’une partie de leur travail peut être fait par une IA. Quand on les interroge sur la proportion de tâches que cela peut représenter, 41 % répondent que 11 à 25 % de leurs missions pourraient être concernées, et pour un tiers d’entre eux cela oscillerait entre 26 et 50 %. On peut supposer que les Français gardent une part d’optimisme et estiment, qu’à l’heure actuelle, ils ont encore leur place et leur valeur ajoutée.
Enfin, l’étude a interrogé les craintes des répondants vis-à-vis de l’impact de l’IA sur leur productivité. 20 % des Français interrogés pensent que l’utilisation de l’IA générative (telle que ChatGPT) est un frein à la créativité, et 25 % pensent que cela peut les faire passer pour des paresseux ou des tricheurs auprès de leur patron ou collègues. Pire encore : plus d’un quart des salariés (27 %) estime que l’utilisation de ces outils d’IA générative prouverait à l’employeur qu’il n’a pas besoin du salarié utilisateur.
Daniel de Prezzo, Head of Technology Southern Europe chez Veritas Technologies partage son analyse : « Le message est clair : les entreprises doivent définir des lignes directrices et des politiques sur l’utilisation appropriée de l’IA générative et les communiquer efficacement. En associant ces règles à des outils de conformité et de gouvernance des données adéquats, les entreprises pourront s’assurer de leur mise en œuvre et de leur application en continu. Vos employés vous remercieront et votre entreprise pourra profiter des avantages en limitant les risques. »
Méthodologie de l’étude
L'étude a été conduite par 3Gem à travers 11 pays sur un échantillon de 11 500 répondants, travaillant dans un bureau, principalement sur un ordinateur. En France, 1 000 personnes ont été interrogées. La phase de collecte des données a été finalisée le 13 décembre 2023.
Autres articles
-
Analytique et IA générative : la confiance et la gouvernance en première ligne
-
La souveraineté des données est loin d’être une chimère
-
Veritas améliore la maîtrise et la gestion des données non structurées et sensibles avec Veritas Data Insight SaaS
-
Données dans le cloud : Quels sont les défis actuels à surmonter ?
-
Données sensibles : Résoudre l’impossible équation de l'infrastructure hybride