Actualités : analyse de données, Business Intelligence, Data Science, Big Data


77 % des Français pensent que l’utilisation de l’IA au bureau devrait être mieux encadrée


Rédigé par Communiqué de Veritas Technologies le 22 Février 2024

La moitié des salariés français utilisent des outils d’IA générative au moins une fois par semaine, principalement pour le gain de productivité qu’ils procurent.

Ils le font tout en étant conscients des risques, pour eux-mêmes, et pour leur entreprise.



Veritas Technologies, un des principaux acteurs de la gestion sécurisée de données multicloud, publie aujourd’hui les résultats et conclusions de sa dernière étude internationale sur l’utilisation des outils d’intelligence artificielle générative (tels que ChatGPT, Bard et autres) par les employés de bureau. Les résultats en France sont fondés sur un échantillon de 1 000 personnes.

Si la moitié de ces salariés français (50 %) déclare se servir des outils d’IA tels que ChatGPT au moins une fois par semaine, certains reconnaissent les utiliser de façon inadaptée. En effet, certains utilisateurs peuvent parfois (consciemment ou non) aller à l’encontre des règles et chartes de leur entreprise – quitte à divulguer des informations confidentielles et/ou stratégiques à des services externes. Par ailleurs, que ce soit par manque de directive, d’appétence pour l’outil ou par méfiance envers cette nouvelle technologie, 32 % des salariés n’ont en revanche jamais utilisé ce type de service.

Un outil de productivité déjà banal mais mal encadré

Alors qu’en France 50 % des répondants déclarent utiliser ces outils au moins une fois par semaine au travail, 63 % l’utiliseraient au moins une fois par mois. Toutefois, si certains employés pensent en faire bon usage et respectent les règles de leur entreprise, les Français sont partagés quant au comportement à adopter face à des personnes qui l’utiliseraient mal. Ainsi, 28 % pensent que leurs collègues les plus aguerris sur le sujet devraient être contraints de former les autres. 27 % envisageraient de les dénoncer à leur hiérarchie, ou encore que 32 % pensent que les utilisateurs devraient dans certains cas tomber sous le coup de sanctions disciplinaires.

Pour les employés de bureau français, l’IA générative a comme usage principal de gagner en productivité et en rapidité dans leurs missions quotidiennes. Ils l’utilisent pour avoir un accès plus rapide à l’information (44 %) ou pour automatiser des tâches élémentaires (39 %). Par ailleurs, ils estiment également que ces outils permettent d’accroître leur productivité (32 %), de générer de nouvelles idées (25 %) ou encore de trouver des conseils sur les défis liés au travail (14 %).

Face à cette innovation et ces possibilités, les répondants français souhaitent qu’une réglementation dédiée à l’IA voie le jour : ils sont 77 % à souhaiter qu’un cadre législatif national ou international soit établi en la matière. À l’heure où le projet d’AI Act a été adopté par le Parlement européen, il semblerait que cette revendication ait trouvé un écho auprès des politiques, mais le chemin est encore long côté entreprise. Si 56 % des salariés français déclarent que leur employeur a déjà partagé des recommandations ou des règles d’utilisation dédiés aux outils d’IA générative tels que ChatGPT et Bard (contre 26 % pour les salariés à travers le monde), ils sont 68 % seulement à les avoir compris. 8 % déclarent ne même pas les avoir consultés.

Sonya Duffin, Solutions Lead chez Veritas, commente : « En l’absence de règles et de cadre d’utilisation de l’IA générative émis par leurs dirigeants, certains salariés peuvent mal utiliser les outils et mettre en péril les entreprises via leurs données. En utilisant des données sensibles pour actionner des services d’IA génératives, les employées fragilisent la position de conformité vis-à-vis des réglementations telles que le RGPD et/ou ouvrent des brèches de sécurité. Par ailleurs, certains salariés craignent d’utiliser ces outils, et les entreprises qui les emploient pourraient passer à côté d’opportunités. Ces deux problèmes peuvent être résolus grâce à des lignes directrices et des politiques efficaces en matière d’IA générative sur ce qui est acceptable et ce qui ne l’est pas. »

IA : une perception française en demi-teinte ?

En France, 17 % des salariés de bureau utiliseraient ces outils pour écrire des rapports d’entreprise, 12 % pour prendre des décisions commerciales, stratégiques ou liées à la clientèle, et 11 % pour échanger avec leurs clients. Contraires aux politiques de l’entreprise (lorsqu’il y en a), ces pratiques soulèvent de nombreuses questions sur leur impact sur la sécurité de l’entreprise, sa performance ou même éventuellement la crédibilité des salariés.

Résultats français relatifs à l'utilisation de l'IA générative au travail

Outre les enjeux de confidentialité des données, l’étude interroge également la place de ces nouvelles technologies dans la réalisation du travail. En effet, les résultats français indiquent que 65 % des salariés pensent qu’une partie de leur travail peut être fait par une IA. Quand on les interroge sur la proportion de tâches que cela peut représenter, 41 % répondent que 11 à 25 % de leurs missions pourraient être concernées, et pour un tiers d’entre eux cela oscillerait entre 26 et 50 %. On peut supposer que les Français gardent une part d’optimisme et estiment, qu’à l’heure actuelle, ils ont encore leur place et leur valeur ajoutée.

Enfin, l’étude a interrogé les craintes des répondants vis-à-vis de l’impact de l’IA sur leur productivité. 20 % des Français interrogés pensent que l’utilisation de l’IA générative (telle que ChatGPT) est un frein à la créativité, et 25 % pensent que cela peut les faire passer pour des paresseux ou des tricheurs auprès de leur patron ou collègues. Pire encore : plus d’un quart des salariés (27 %) estime que l’utilisation de ces outils d’IA générative prouverait à l’employeur qu’il n’a pas besoin du salarié utilisateur.

Daniel de Prezzo, Head of Technology Southern Europe chez Veritas Technologies partage son analyse : « Le message est clair : les entreprises doivent définir des lignes directrices et des politiques sur l’utilisation appropriée de l’IA générative et les communiquer efficacement. En associant ces règles à des outils de conformité et de gouvernance des données adéquats, les entreprises pourront s’assurer de leur mise en œuvre et de leur application en continu. Vos employés vous remercieront et votre entreprise pourra profiter des avantages en limitant les risques. »

Méthodologie de l’étude

L'étude a été conduite par 3Gem à travers 11 pays sur un échantillon de 11 500 répondants, travaillant dans un bureau, principalement sur un ordinateur. En France, 1 000 personnes ont été interrogées. La phase de collecte des données a été finalisée le 13 décembre 2023.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store