Les prémisses de son raisonnement sont aisées à comprendre. En effet, d'une manière ou d'une autre, les biais introduits dans les logiciels constituent une forme d'anomalie de programmation contre laquelle les entreprises doivent lutter grâce à de puissants mécanismes d'identification et une stratégie de correction permanente. Face à une telle présentation, l'analogie avec le traitement des failles de sécurité apparaît immédiatement et il ne serait donc pas absurde d'en décliner un des outils les plus performants.
Ainsi, au lieu d'espérer (ou de redouter) qu'une équipe d'experts se penche sur telle application ou (comme Apple en a fait récemment l'expérience) que les médias sociaux s'enflamment autour de tel résultat suspect, peut-on envisager un dispositif de détection ouvert, qui encouragerait, à travers un programme de primes (financières), une communauté de spécialistes à analyser les plates-formes exposées de manière à y repérer des déviations plus ou moins graves et les dénoncer, dans un cadre structuré ?
Malheureusement, une simple transposition du modèle ne suffira pas, car les conditions sont radicalement différentes, sur plusieurs plans complémentaires, entre le domaine de la cybersécurité et celui de l'IA. Cependant, il sera certainement possible, une fois appréhendées les caractéristiques spécifiques à prendre en compte, d'imaginer une approche capable de fournir un début de réponse à un enjeu qui, pour l'instant et en dépit de ses conséquences, reste largement ignoré ou, pour le moins, négligé.
La principale difficulté à surmonter consiste à induire une volonté d'action des acteurs concernés : autant les entreprises ont intérêt à corriger au plus vite les erreurs ouvrant la porte à des fraudes, autant les biais algorithmiques peuvent être perçus comme peu prioritaires, parce que leurs impacts sont peu visibles, tandis que leur élimination peut engendrer des coûts importants. De ce point de vue, la législation en matière de lutte contre les discriminations pourrait fournir l'impulsion nécessaire à un changement.
Encore faut-il que le deuxième obstacle soit également levé, aussi bien pour une éventuelle judiciarisation que dans le but de définir les règles du jeu de la chasse à la prime, à savoir la définition claire de ce qui constitue une anomalie et de sa gravité. En l'occurrence, si les victimes sont des individus, le « crime » n'a d'existence que statistique, ce qui rend la question de son appréciation extraordinairement plus complexe que la découverte d'une faille de sécurité et la création d'un programme qui l'exploite.
Vient ensuite la question de l'accès au matériel nécessaire à la recherche, c'est-à-dire, si on ne veut pas se contenter d'un échantillonnage empirique limité qui introduirait des doutes sur la validité de la démarche, la masse des conclusions produites par les outils d'IA, accompagnées des données (potentiellement sensibles) utilisées en entrée. Ce ne peut être concevable que moyennant un effort délibéré, très consommateur de ressources, de la part de l'organisation qui s'engagerait dans cette direction.
De toute évidence, le défi des biais de l'intelligence artificielle sera difficile à relever. À ce stade, la priorité devrait d'abord porter sur la sensibilisation des utilisateurs de la technologie aux risques inhérents et à la nécessité pour eux d'investir dans une lutte efficace, qui impliquera vraisemblablement un arsenal varié. Avec un peu de créativité, les chasseurs de prime trouveront peut-être une place dans celui-ci, pourquoi pas en introduisant un axe de sagesse des foules qui servirait de poste d'alerte avancée ?
Deborah Raji (par elle-même) – Licence CC BY-SA 4.0