3 questions à … Aurélie Jean

Publié le 12 novembre 2020 par Davidfayon
1. Dans le passage de la réalité à sa représentation (modélisation avec algorithmes), il existe de nombreux biais, pourriez-vous nous en expliciter quelques-uns ? Quid de l'importance de la fraîcheur des données dans les déductions et interprétations que nous pouvons faire ?

À l'instar de toute fabrication, en concevant un algorithme on peut introduire un biais dit de conception par l'existence de nos propres biais cognitifs. Cela s'exprime à travers les critères explicites de l'algorithme que nous définissions manuellement, les équations mathématiques choisies pour exprimer le phénomène à modéliser, les hypothèses, ou encore les données de calibration ou d'entraînement dans le cas d'algorithmes d'apprentissage.

[crédit photo : Géraldine Aresteanu]

Comme je l'explique dans mon livre ( De l'autre côté de la Machine - voyage d'une scientifique au pays des algorithmes, édition de L'Observatoire et Livre de Poche), les premiers algorithmes de reconnaissance faciale ne reconnaissaient pas les peaux noires et ce pour plusieurs raisons possibles. Tout d'abord les critères explicites sur le contraste d'image considéré dans les algorithmes d'analyse d'images ne considéraient pas les peaux noires. Enfin et surtout, les images fournies à l'algorithme pour l'entraînement ne comportaient sûrement que des images d'individus blancs. Les algorithmes entrainés et calibrés étaient donc dans l'incapacité d'identifier la présence d'un visage d'une personne noire. On parle de discrimination technologique dans la mesure où une catégorie de la population est écartée de l'usage de l'outil, ou dans la mesure où tous les individus ne sont pas traités de la même manière par l'algorithme.

Ce biais provient surement du biais cognitifs des concepteurs qui étaient majoritairement blancs. Comme j'insiste dans le livre, ce n'est pas la faute des concepteurs mais notre faute à tous ; de celui qui a l'idée de l'outil, celui qui le pense, celui qui le développe, celui qui le teste, celui qui le vend et enfin celui qui l'utilise. Nous avons tous notre part de responsabilité.

Il est important de travailler suffisamment sur les données d'entraînement afin de garantir une certaine représentativité et d'éliminer les biais. Il faut aussi tester suffisamment l'algorithme avant déploiement et en production. Enfin une conception en étroite collaboration avec des gens du métier du domaine d'application dans lequel l'algorithme est développé, ou encore avec des utilisateurs, permet de construire des outils bien plus riches.

2. Comment repérer des ruptures dans les comportements ou des tendances en exploitant les masses de données et les signaux faibles sachant que, dans beaucoup d'applications, les données historiques sont très importantes par rapport aux données récentes ?

Il est nécessaire de tester les données utilisées pour entraîner les algorithmes. Cela fait partie des bonnes pratiques de conception des modèles. On teste la taille des données en diminuant la taille de l'échantillon d'entraînement et en comparant les comportements algorithmiques après apprentissage. On teste également la nature de ces données en variant par exemple les valeurs associées d'un certain pourcentage et en comparant une fois encore les comportements algorithmiques après apprentissage. Un comportement significativement différent est le signe d'un échantillon initialement potentiellement biaisé, avec une absence de représentativité dans la taille et/ou la nature. Il y a bien d'autres tests à réaliser sur les algorithmes entraînés pour détecter la présence de biais.

3. Deux savoirs sont indispensables, d'une part l'esprit critique face à l'information (cf. fake news, deep fake, etc.). Ceci suppose un tri, un jugement et un raisonnement par rapport au flot d'information. D'autre part le code car " code is law ". Quels commentaires ou réflexions cela vous inspire ?

Le manque d'esprit critique chez nous tous n'a pas attendu les algorithmes pour s'installer. Cela étant dit, les algorithmes peuvent être mal utilisés dans un objectif de nuire et/ou de manipuler l'opinion, affaiblissant encore davantage notre esprit critique déjà abimé. Les algorithmes ne sont pas coupables de notre perte d'esprit critique, mais les individus derrière ces algorithmes sont en partie coupables. Nous sommes également partiellement coupables car nous devons travailler notre esprit critique en comprenant davantage les outils numériques de notre quotidien, et le fonctionnement des algorithmes en particulier. Je n'ai jamais compris les tenants et les aboutissants de cette expression "code is law" il faudrait que je lise l'article de Lawrence Lessig. Cela étant dit je comprends que la loi et par son extension la morale ne guideraient pas nos comportements mais que ce serait plutôt nos agissements combinés, et orientés par les réseaux sociaux par exemple qui guideraient nos actions et nos réflexions. Encore une fois je vais lire l'article explicatif de Lessig, mais je me méfie toujours des phrases au sens unilatéral et sans nuance... mais parfois on tombe juste.

12 novembre 2020

Docteure en sciences et entrepreneure, Aurélie Jean est fondatrice et CEO de In Silico Veritas et a publié De l'autre côté de la machine.