Les spécialistes de tout poil s'accordent tous sur un préalable à la généralisation de l'intelligence artificielle pour la prise de décision dans les institutions financières : les résultats doivent être explicables. Une intervention d'un responsable du régulateur britannique du secteur souligne cependant la difficulté à implémenter un tel principe.
C'est à l'occasion d'une conférence consacrée aux enjeux éthiques de l'IA dans le secteur financier, organisée par l'institut Alan Turing, que le directeur de la stratégie et de la concurrence à la FCA, Christopher Woolard, exposait l'état actuel de ses réflexions sur le sujet. Il indiquait notamment qu'une collaboration avait été engagée avec l'organisme de recherche afin de dépasser le stade des généralités et de se pencher sur les défis concrets à relever pour garantir des usages responsables des technologies.
En effet, une fois qu'est énoncée la doctrine (raisonnable) de l'indispensable explicabilité des décisions prises par des machines, par exemple d'accorder un prêt ou d'assurer un individu, les questions pratiques sur sa mise en œuvre s'accumulent rapidement. Après tout, la description du « raisonnement » tenu par un modèle d'apprentissage automatique n'est pas un produit intrinsèque de sa conception et viendra toujours un moment où il faudra choisir entre cette visibilité et la performance des prédictions exprimées.
En amont même de toute tentative d'implémentation, une interrogation primitive, et critique pour les institutions financières, émerge : qu'est ce qu'une « explication » satisfaisante, en particulier dans un contexte réglementaire, à quel niveau d'abstraction doit-elle se placer, à qui devrait-elle être destinée (un expert interne, le directeur général de la banque, les autorités, le client final…) ? Les réponses seront cruciales pour donner véritablement corps à l'objectif visé de maintenir un contrôle étroit sur les outils.
Or, l'aspect le plus intéressant de ces considérations est qu'elles pourraient esquisser un progrès considérable pour les consommateurs et les entreprises qui, aujourd'hui, peuvent se voir refuser un produit sans raison sérieuse et motivée. Si, demain, les algorithmes exploités sont contraints de fournir les arguments qui ont servi à établir une conclusion (avec des moyens de recours), la transparence aura franchi un pas immense… ainsi que la confiance dans la banque… et dans l'intelligence artificielle.
La FCA – comme, j'espère, ses équivalents dans le reste du monde – conçoit son rôle dans une logique d'amélioration constante des services rendus aux clients (le titre de la conférence de Christopher Woolard est d'ailleurs explicite, en mentionnant l'« IA pour le bien des consommateurs »). Son objectif prioritaire est donc de favoriser des usages innovants de l'ouverture des données et de l'IA, entre autres, susceptibles de résorber des difficultés existantes, autant que possible sans en créer de nouvelles.
En l'occurrence, les explorations en cours pourraient offrir une occasion unique non seulement de stimuler le développement de pratiques plus objectivement éthiques dans la banque mais également d'introduire plus de transparence dans les relations entre les clients et leurs fournisseurs. Si l'avantage pour les premiers est évident, il faut tout de même rappeler qu'il ne s'agit que de répondre à une attente de plus en plus sensible et que, dans cette perspective, les seconds ont tout à gagner à la satisfaire.