L'entrée en vigueur, le mois dernier, du règlement européen pour la protection des données personnelles (RGPD) a constitué un premier révélateur de l'écart qui sépare les pratiques. En effet, ces dernières semaines, vous avez certainement été submergé par les messages de mise à jour des conditions d'utilisation d'une multitude de fournisseurs, pour mise en conformité. Votre banque était-elle du lot ? Selon toute probabilité, non. Peut-être n'avait-elle aucune raison de vous importuner de la sorte ?
En réalité, il en était de même pour beaucoup d'autres entreprises, qui avaient fait l'effort d'adapter leurs politiques bien avant la date fatidique. La différence est que certaines d'entre elles ont estimé que le bruit médiatique entourant le nouveau texte représentait une opportunité idéale de communiquer avec leurs utilisateurs, afin de les rassurer, tandis que d'autres, habituées à la discrétion, ne prenaient même pas la peine de ré-affirmer à leurs clients qu'elles protègent leur vie privée, depuis toujours.
Cette attitude expose la certitude qu'ont une bonne partie des institutions financières qu'elles ont la confiance de leurs clients, qu'elle est inébranlable et qu'il est donc inutile de souligner les engagements pris pour continuer à la mériter. Seule une minorité parmi elles (Crédit Agricole, MAIF, notamment) ont pris le soin de poser un certain nombre de principes éthiques dans une charte publique, tandis que les démarches de ce genre se propagent chez les géants technologiques en quête de respectabilité.
C'est ce que vient justement de faire Google, par exemple, vis-à-vis de son utilisation de l'intelligence artificielle, dont les enjeux sociétaux apparaissent considérables. Publiée par son directeur général, Sundar Pichai, sa charte définit les règles que s'impose le groupe en la matière : viser des objectifs socialement bénéfiques, éviter la création ou le renforcement de biais indésirables, garantir la sécurité des applications, assumer sa responsabilité devant les utilisateurs, intégrer le respect de la vie privée, maintenir les plus hauts standards scientifiques, faciliter les usages respectueux de ces principes…
Naturellement, les cyniques ne manqueront pas de faire valoir qu'il ne s'agit que d'une déclaration d'intention, qui peut être reniée à tout moment. Elle établit toutefois un point d'ancrage essentiel, à partir duquel, d'une part, les actes futurs de Google seront jaugés, et, d'autre part, toutes les initiatives qui suivront seront comparées. En créant, de facto, le premier référentiel éthique de l'IA, l'entreprise prend automatiquement un avantage en termes de confiance (qui, certes, peut se dégrader très rapidement).
Par contraste, les acteurs qui gèrent des informations sensibles (l'argent) pour les consommateurs et qui n'assument pas la transparence devenue partout la norme seront traités avec suspicion à la moindre velléité de mise en œuvre de l'IA, quelle qu'en soit la motivation. C'est ce qui se produit déjà avec les tentatives d'utilisation des données, aboutissant parfois à des crises majeures, et ce phénomène n'ira qu'en s'amplifiant. Alors, à quand une charte de l'intelligence artificielle dans une institution financière ?