Au début, ce n'était qu'une idée, proposée par une chercheuse canadienne. Puis sont venues les premières expérimentations, telles que celle qu'a organisée Twitter l'année passée. Aujourd'hui, Bobidi entame la phase d'industrialisation de la recherche de biais dans les modèles d'intelligence artificielle grâce à une communauté ad hoc.
Le principe est, d'une certaine manière, similaire à celui qui est appliqué depuis longtemps avec les programmes de « bug bounty » pour la recherche de failles de sécurité logicielles. Très synthétiquement, une entreprise soumet, moyennant rémunération, son algorithme à un groupe de volontaires en leur demandant de repérer ses éventuels défauts. L'objectif est de compléter les validations internes, forcément limitées, et d'affiner la qualité des produits livrés avant leur passage en exploitation commerciale.
Dans la pratique, quand Bobidi se voit confier un problème, ses équipes le transforme en un challenge plus ou moins ludique. Par exemple, l'évaluation d'un outil de reconnaissance d'images peut se convertir en une demande de trouver des illustrations interprétées à tort comme… des bananes. Bien sûr, contrairement aux chasseurs de prime de cybersécurité, les participants n'ont pas besoin d'expertise particulière pour ce genre de mission et les rétributions sont beaucoup plus faibles (selon TechCrunch).
Autre différence, les résultats livrés ne correspondent pas à des anomalies précises susceptibles d'être corrigées par quelques lignes de code. Il s'agit plutôt d'une analyse statistique des défauts observés par rapport à la référence attendue, assortie des caractéristiques génériques des données qui les produisent. Selon cette perspective, l'approche de la jeune pousse relève en fait d'une mise à l'épreuve des modèles sur des échantillons non standards, apportés par des testeurs tiers stimulés dans ce but.
Le dispositif est évidemment encore loin d'être généralisable à toutes sortes de contextes et de conditions. Tout d'abord, il requiert une phase manuelle de découverte et de définition des mécanismes d'examen à soumettre aux contributeurs externes, d'autant plus complexe qu'elle doit déboucher sur une combinaison d'efficacité (par rapport aux critères établis en amont) et de facilité de mise en œuvre et de prise en main, le tout sous une forme suffisamment attractive pour engager un maximum d'utilisateurs.
Se pose aussi très rapidement la question de la protection de la propriété intellectuelle sur laquelle s'exerce des inconnus. Outre l'assurance d'une intolérance absolue vis-à-vis de tout comportement indélicat, la seule réponse technique formulée repose sur un accès aux fonctions à vérifier par API (?) et son expiration après un délai prédéterminé, ce qui semble pour le moins succinct. L'ensemble de ces réserves explique pourquoi les cas d'usage initiaux portent majoritairement sur la reconnaissance d'images.
Les grands groupes, notamment dans le secteur financier, dépensent maintenant des fortunes à explorer les opportunités de l'intelligence artificielle et la majeure partie de ces budgets part en fumée en raison des réticences persistantes à déployer les solutions concoctées, surtout quand elles touchent les clients, faute de confiance dans leur performance. Le système de Bobidi pourrait alors constituer un facteur supplémentaire pour emporter la décision. Et ne pourrait-on envisager sa déclinaison auprès des collaborateurs, afin de soulager les craintes pour la confidentialité et la sécurité ?