Autres articles
-
L’immobilier de placement face à la reprise
-
Déconfinement partiel : 5 conseils pour garder les équipes soudées et motivées
-
Le télétravail deviendra-t-il la nouvelle norme ?
-
Faire évoluer la gouvernance des entreprises : un impératif post Covid-19
-
Crise Covid-19 et crédit immobilier : un marché régulé et des emprunteurs mieux accompagnés
Pour comprendre, il faut se pencher sur la façon dont fonctionne et est construit un algorithme d’IA : l’algorithme travaille et apprend à partir d’une base de données. Des développeurs l’enrichissent ensuite en le programmant, pour le guider précisément dans son analyse des candidatures. Ce sont bien ces deux éléments qui interrogent aujourd’hui et font de certains algorithmes des solutions biaisées, reproduisant les stéréotypes actuels.
En effet, les données existantes à ce jour sont majoritairement des données sur les hommes, car on manque de données sur les femmes. L’algorithme prend en référence ces données, en déduit un comportement à suivre, puis l’applique et donc reproduit voire amplifie les biais existants. C’est ce qui s’est passé chez Amazon : les données communiquées à l’algorithme pour des postes techniques ou de développeurs étaient une concaténation de modèles de CV pour ces profils sur les dix dernières années. Ces postes étant majoritairement occupés par des hommes, l’algorithme en a conclu qu’ils correspondaient davantage aux hommes qu’aux femmes.
Et puis, il y a les développeurs qui œuvrent derrière les algorithmes. Le monde de la programmation, de l’IA et de la tech en général reste encore très masculin : 1/3 des femmes travaillent dans le secteur du numérique et seules 12% des chercheurs en IA sont des femmes. Les développeurs ne représentent donc pas l’ensemble de la population et sont porteurs de biais conscients ou inconscients, qui se retrouvent ensuite dans leurs codes.
Le choix ou la création d’une bonne base de données est premièrement crucial, puisque l’algorithme apprend à partir des données. Celles-ci doivent être suffisamment complètes et diversifiées pour que des profils atypiques, en reconversion professionnelle par exemple, ne soient pas automatiquement mis de côté.
Ensuite, l’équipe qui programme l’algorithme doit être variée (profil, genre, origine…) et ses membres complémentaires. La diversité amène la créativité et permet de se poser les bonnes questions pour s’assurer que l’algorithme est inclusif. C’est ce qu’affirme K. Nilson, co-fondateur de Pivigo, entreprise anglaise de data science : « La créativité a besoin de la diversité et nous devons nous demander : “En faisant cela, est-ce que je fais du tort à quelqu’un” ». Une équipe de développeurs diversifiée va définir les valeurs à intégrer à l’algorithme, et donc le rendre complet, dénué autant que possible de biais. Cela ne se fera cependant pas du jour au lendemain : le secteur de la tech doit parvenir à se féminiser, et, plus généralement, à se diversifier. Des initiatives se multiplient pour encourager les femmes notamment à faire carrière dans la tech, dès le plus jeune âge. Work180, une plateforme de recherche d’emploi mettant en avant les entreprises qui soutiennent et valorisent les carrières féminines, organise par exemple tous les ans, en Australie et en Nouvelle-Zélande, l’événement SuperDaugther Day : créé en partenariat avec des entreprises de la tech, il vise à initier dès le primaire les jeunes filles aux matières scientifiques appliquées à l’entreprise.
Gageons qu’à terme, les algorithmes d’IA seront un outil permettant de s’émanciper des stéréotypes actuels, « d’ouvrir ses chakras », pour recruter des candidats aux parcours différents. Et nul doute qu’après la sortie de la crise sanitaire Covid-19 que nous traversons, nous allons redéfinir complètement le contenu fonctionnel et technique des algorithmes d’IA et les personnes qui vont le coder. C’est le monde d’après à redéfinir.
A propos de l'auteur : Camille Schmitt est consultante au sein de la practice Conseil RH de Magellan Consulting.