Je profite aujourd'hui de la publication d'un ouvrage sur l'« économie comportementale » par Strands, éditeur de solutions de gestion de finances personnelles, pour m'attarder sur les usages émergents des données et de l'intelligence artificielle dans la banque et les risques de dérives qu'ils sont susceptibles d'entraîner s'ils sont mal abordés.
La prolifération d'informations sur les consommateurs (et les entreprises) et la sophistication croissante des algorithmes capables de les exploiter suscite l'introduction progressive de fonctions de conseil financier automatisé. Par exemple, un assistant virtuel qui prédit un découvert probable quelques jours avant qu'il ne se produise et recommande de souscrire un crédit ou suggère (voire exécute) un virement depuis un compte d'épargne afin de l'éviter devient un scénario presque banal.
Plus généralement, se répand désormais l'idée dans le secteur – en priorité dans les startups de la FinTech, naturellement, mais aussi, petit à petit, dans les institutions financières – que les technologies modernes peuvent être mises au service du bien-être économique des clients, d'abord en appréhendant et en comprenant leurs biais comportementaux, particulièrement vivaces et néfastes dans la relation à l'argent, puis en développant des mécanismes, actifs ou incitatifs, destinés à les corriger.
Dans une certaine mesure, il s'agit de renverser le rôle de la banque : jusqu'à maintenant pourvoyeuse de produits plus ou moins adaptés à des besoins plus ou moins bien écoutés et analysés, elle se transformera en un compagnon personnel, avisé et objectif, parfaitement au fait des erreurs de jugement qui affectent en permanence les décisions humaines et prêt à recommander en toutes circonstances un comportement optimal, assorti de solutions précisément adaptées au contexte.
Dans l'absolu, le principe est louable et peut représenter un progrès considérable dans la gestion de l'argent au quotidien pour des millions de personnes. Il n'est cependant pas sans danger, car l'écart est ténu entre incitation positive (dont les fameux « nudges ») et pure manipulation psychologique, volontaire ou accidentelle. En particulier, il serait fort inquiétant que ces techniques se voient appropriées et soient mises en œuvre sans discernement par des équipes informatiques friandes de gadgets dernier cri.
Le comportement humain n'obéit pas à des règles simples, comme un algorithme. Il serait absurde de penser qu'il est possible de changer profondément les (mauvaises) habitudes des consommateurs grâce à quelques artifices logiciels. Ne serait-ce que parce que chaque individu est différent des autres. Il ne faudrait donc pas que des marchands de rêves se mettent à vendre des « applications comportementales » prêtes à l'emploi. L'enjeu est suffisamment sérieux pour rester entre les mains de vrais spécialistes.
Au-delà des exemples triviaux (tels que celui du découvert bancaire cité plus haut), les institutions financières ont intérêt à se pencher sur les mécanismes qui font agir ou réagir leurs clients, car ils seront de plus en plus indispensables pour savoir leur apporter la bonne solution au bon moment, qu'ils expriment un besoin explicite ou non. Mais il faut impérativement comprendre que cette approche requiert l'ajout d'une nouvelle discipline dans l'entreprise, qui passera par le recrutement d'une équipe de psychologues.