Actualités : analyse de données, Business Intelligence, Data Science, Big Data


L’IA appliquée au processus de recrutement : comment la rendre plus juste et inclusive ?


Rédigé par Camille Schmitt, Magellan Consulting le 18 Mai 2020

L’Intelligence artificielle (IA) a aujourd’hui le vent en poupe et devient un levier majeur pour les Directions des Ressources Humaines. Le cabinet Tractica prédit une augmentation moyenne annuelle de 50% jusqu’en 2025 de son utilisation en entreprise. Dans le cadre de la gestion de processus de recrutement en particulier, les algorithmes de matching fleurissent, avec la promesse d’analyser rapidement et objectivement un volume important de candidatures à partir notamment du CV. Qu’en est-il réellement ? Quelles solutions envisager face aux problématiques et enjeux identifiés ?



Camille Schmitt, consultante au sein de la practice Conseil RH de Magellan Consulting
Camille Schmitt, consultante au sein de la practice Conseil RH de Magellan Consulting
Les algorithmes d’IA développés restent imparfaits

Force est de constater que les algorithmes d’IA développés actuellement restent encore imparfaits. On observe un écart entre ce qui est souhaité, ce que l’on pense avoir programmé, et le résultat transmis par l’algorithme. Ce fut le cas d’Amazon : en 2014, l’entreprise lançait son propre algorithme d’IA destiné à faciliter son processus de recrutement. Un an après, les résultats obtenus laissaient perplexe : l’algorithme n’avait retenu que des CV d’hommes.

Pour comprendre, il faut se pencher sur la façon dont fonctionne et est construit un algorithme d’IA : l’algorithme travaille et apprend à partir d’une base de données. Des développeurs l’enrichissent ensuite en le programmant, pour le guider précisément dans son analyse des candidatures. Ce sont bien ces deux éléments qui interrogent aujourd’hui et font de certains algorithmes des solutions biaisées, reproduisant les stéréotypes actuels.

En effet, les données existantes à ce jour sont majoritairement des données sur les hommes, car on manque de données sur les femmes. L’algorithme prend en référence ces données, en déduit un comportement à suivre, puis l’applique et donc reproduit voire amplifie les biais existants. C’est ce qui s’est passé chez Amazon : les données communiquées à l’algorithme pour des postes techniques ou de développeurs étaient une concaténation de modèles de CV pour ces profils sur les dix dernières années. Ces postes étant majoritairement occupés par des hommes, l’algorithme en a conclu qu’ils correspondaient davantage aux hommes qu’aux femmes.

Et puis, il y a les développeurs qui œuvrent derrière les algorithmes. Le monde de la programmation, de l’IA et de la tech en général reste encore très masculin : 1/3 des femmes travaillent dans le secteur du numérique et seules 12% des chercheurs en IA sont des femmes. Les développeurs ne représentent donc pas l’ensemble de la population et sont porteurs de biais conscients ou inconscients, qui se retrouvent ensuite dans leurs codes.

Quelles pistes pour rendre un algorithme d’IA optimal et égalitaire ?

Le choix ou la création d’une bonne base de données est premièrement crucial, puisque l’algorithme apprend à partir des données. Celles-ci doivent être suffisamment complètes et diversifiées pour que des profils atypiques, en reconversion professionnelle par exemple, ne soient pas automatiquement mis de côté.

Ensuite, l’équipe qui programme l’algorithme doit être variée (profil, genre, origine…) et ses membres complémentaires. La diversité amène la créativité et permet de se poser les bonnes questions pour s’assurer que l’algorithme est inclusif. C’est ce qu’affirme K. Nilson, co-fondateur de Pivigo, entreprise anglaise de data science : « La créativité a besoin de la diversité et nous devons nous demander : “En faisant cela, est-ce que je fais du tort à quelqu’un” ». Une équipe de développeurs diversifiée va définir les valeurs à intégrer à l’algorithme, et donc le rendre complet, dénué autant que possible de biais. Cela ne se fera cependant pas du jour au lendemain : le secteur de la tech doit parvenir à se féminiser, et, plus généralement, à se diversifier. Des initiatives se multiplient pour encourager les femmes notamment à faire carrière dans la tech, dès le plus jeune âge. Work180, une plateforme de recherche d’emploi mettant en avant les entreprises qui soutiennent et valorisent les carrières féminines, organise par exemple tous les ans, en Australie et en Nouvelle-Zélande, l’événement SuperDaugther Day : créé en partenariat avec des entreprises de la tech, il vise à initier dès le primaire les jeunes filles aux matières scientifiques appliquées à l’entreprise.

Gageons qu’à terme, les algorithmes d’IA seront un outil permettant de s’émanciper des stéréotypes actuels, « d’ouvrir ses chakras », pour recruter des candidats aux parcours différents. Et nul doute qu’après la sortie de la crise sanitaire Covid-19 que nous traversons, nous allons redéfinir complètement le contenu fonctionnel et technique des algorithmes d’IA et les personnes qui vont le coder. C’est le monde d’après à redéfinir.




Commentaires

1.Posté par Vallaud Thierry le 21/05/2020 12:12
Déjà un questionnement : les algos supervisés (qui apprennent du passé) sont t'ils l'IA ? Après ci celui qui programme l'algo est macho, raciste et sexiste je crains que l'algo le soit aussi…..
Il faut être particulièrement vigilant en RH, en algos pour la police ou la justice mais même en amour : lire L'amour sous algorithme de Judith Duportail pour éviter les visions archétypales, ceci dit ce n'est pas propre à l'IA.

Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store