Quand TD interroge les consommateurs canadiens, le conflit latent ressort immédiatement. D'un côté, une immense majorité (72%) d'entre eux est à l'aise avec l'idée que l'IA soit employée par les entreprises afin de leur offrir des services plus performants, plus personnalisés. De l'autre, ils sont à peu près aussi nombreux à exprimer des inquiétudes, sur l'impact de ces technologies sur la société, sur leur capacité à en comprendre les risques et sur les implications de l'utilisation de leurs données privées.
Face à cette ambivalence inextricable, les institutions financières se trouvent fort embarrassées, à juste titre quand elles craignent d'éroder la confiance de leurs clients si ces derniers perçoivent négativement leurs initiatives (comme il est arrivé à plusieurs reprises depuis quelques années avec l'exploitation des informations des comptes), mais aussi de manière excessive lorsque ces réticences conduisent à une paralysie quasiment totale et au renoncement à saisir les opportunités qui se présentent.
Sous prétexte qu'elles ne peuvent en aucun cas mettre en danger la relation étroite qu'elles entretiennent avec leurs clients, ce qui leur interdit de se comporter comme des startups ou des géants technologiques – inconséquents, peut-on lire entre les lignes – n'hésitant jamais à repousser les frontières toujours plus loin, quitte à revenir en arrière lorsque leurs utilisateurs ne les suivent plus, elles ont en effet tendance à se pétrifier. C'est pourquoi TD veut comprendre les peurs, puis trouver les solutions possibles.
La première préoccupation des consommateurs vis-à-vis de l'intelligence artificielle étant la menace qu'elle représente sur leur libre-arbitre (et celui de leur banque), leur exigence prioritaire est, sans surprise, la transparence absolue. Ils demandent donc seulement à savoir (et pouvoir décider) quand, comment et à quelles fins leurs données personnelles sont exploitées, mais également de pouvoir à tout moment se faire expliquer le résultat d'un algorithme ou, plus largement, la motivation d'une décision automatisée.
Le second axe de réassurance à aborder impérativement concerne les biais des modèles mis en œuvre, contre lesquels il ne suffira pas de démontrer qu'ils peuvent être identifiés et rectifiés a posteriori. Leurs victimes potentielles veulent qu'ils soient éliminés en amont. Dans le registre des discriminations, par exemple, cela impliquerait d'introduire plus de diversité, autant dans les échantillons de données utilisés que parmi les concepteurs des applications de l'IA (et leur hiérarchie, jusqu'au sommet).
Ces deux grands principes résument les enjeux éthiques que les institutions financières ont à adresser avant de s'aventurer sérieusement dans l'intelligence artificielle (ou, plus vraisemblablement, l'apprentissage automatique). Mais, une fois cette certitude établie, pas question de se lamenter sans fin sur les difficultés : il faut maintenant transformer les idées en actes et instaurer les mécanismes concrets qui assureront la transparence et l'éradication des biais. Sinon, le train de l'innovation passera sans s'arrêter.