Si des dispositifs existent dans les grands établissements, c’est au prix de chantiers longs et couteux, et ils sont rarement exhaustifs comme le montrent souvent les recommandations de l’ACPR. Les nouvelles réglementations en cours de mise en place amènent cette problématique au premier plan et obligent les métiers de la banque de détail comme ceux de la BFI à rapidement progresser en la matière.
La qualité des données métiers : une problématique complexe
Tout d’abord qu’entend-on par données « métiers » ? L’ensemble des données de gestion saisies par les acteurs des lignes métiers de la banque, des Front Offices au Back Offices, soit principalement les données relatives aux contrats ou opérations. Si pendant longtemps la qualité de ces données a été vue comme un enjeu de la responsabilité des DSI, le curseur est en train de se déplacer. Depuis de nombreuses années les banques ont mené de vastes chantiers d’urbanisation et d’administration des données et ont investi dans des solutions techniques performantes pour assurer le reporting réglementaire. Désormais, les problématiques informatiques de qualité des données sont donc globalement bien maîtrisées. Les problèmes de tuyaux et de données référentielles étant pour la plupart résolus, les données métiers mal saisies à la source se retrouvent sous le feu des projecteurs.
En outre, les causes de non qualité côté métiers se renforcent : l’augmentation du nombre de données saisies bien sĂťr (l’effet « big data »), avec de plus, une part importante de données qualitatives sans impact pour les clients et donc non « vérifiées » par ces derniers ; mais aussi le déploiement de progiciels de marché (en particulier en BFI) complexes et conçus pour s’adapter à toutes les banques et donc présentant peu de contrôles à la saisie ; ou encore la pression budgétaire tant sur les effectifs back offices que sur les équipes projets : les contrôles étant des fonctionnalités non indispensables elles sont les premières arbitrées. A l’opposé, la non qualité est de moins en moins tolérée : l’automatisation des chaînes Front-to-Back rend les corrections manuelles plus lourdes ; les équipes de business intelligence exploitent sans cesse plus les données ; et surtout le régulateur accroît ses contrôles en la matière, en particulier dans le cadre des homologations Bâle 2.
Malgré cela, l’amélioration de la qualité des données constitue un serpent de mer dans beaucoup de banques, voire un sujet de résignation. La première raison de cette inaction est un ROI difficilement quantifiable et un retour d’expérience faible. Les exemples restent rares : aujourd’hui les dispositifs complets de pilotage de la qualité des données sont pour la plupart des établissements limités aux données Bâle 2. Ensuite, ces chantiers impliquent un grand nombre d’interlocuteurs de tout type : directions risques et financière pour la définition des règles, l’identification des problèmes et le rappel des règles ; les lignes métiers pour la mise à jour des processus ; la DSI pour les évolutions des outils (en particulier la mise en place de contrôles automatiques), etc. Enfin, ces chantiers sont à maintenir et à faire évoluer dans la durée sans quoi la qualité des données se détériore à nouveau. Par exemple, l’expérience montre que si les contrôles automatiques n’évoluent pas au même rythme que les modifications de paramétrage des outils, les évolutions des processus, ou les nouvelles réglementations, un dispositif de contrôles peut se révéler complètement obsolète en quelques années seulement.
Un enjeu clé pour les nouvelles réglementations
Les réglementations en cours de mise en place obligent désormais à traiter le problème de front. Bâle III, EMIR, FATCA, Dodd Frank, MIFID apportent chacune leur lot de nouvelles données « réglementaires ». Ces données concernent tout autant les données des contrats que les données clients ou référentielles. Et certains régulateurs vont jusqu’à formaliser l’évidence dans les textes : l’obligation de remonter des données de qualité. Si la première difficulté rencontrée consiste à adapter les SI pour remonter ces données métiers, l’enjeu de la qualité des saisies des métiers n’est pas d’une moindre importance. Les chantiers de nettoyage concernent en effet souvent plus de données que les chantiers SI.
D’une part, évidemment, les nouvelles informations remontées au régulateur ou nécessaires au classement des opérations dans la bonne case du reporting sont pour la plupart concernées. Même si ces données pouvaient être saisies dans les systèmes, certaines n’étaient non seulement pas remontées au régulateur mais souvent peu utilisées en interne et non visibles des clients. Elles ont donc été peu contrôlées et présentent un piètre niveau de qualité. A titre d’illustration, une donnée aussi simple que le montant initial présente des erreurs type « fat finger », oubli de saisie (la donnée n’étant pas obligatoire dans les SI) ou encore de confusions entre la part de la banque et le total des banques du pool.
D’autre part, de nombreuses données sont indirectement impactées, principalement du fait de l’optimisation du portefeuille indispensable pour respecter à moindre coĂťt les obligations réglementaires. En particulier, dans le cadre de Bâle III les ressources telles que le capital et la liquidité sont devenues des ressources rares et les gaspillages tolérés sous Bâle II ne sont plus possibles désormais. Par exemple, en banque de détail, la date de fin de validité des offres de crédit n’est pas toujours renseignée par les F/O de sorte que des offres non souscrites restent actives pendant des mois générant un encours hors bilan injustifié. A l’aune du renchérissement de la liquidité induit par les nouveaux ratios Bâle III, un tel montant n’est plus supportable et les métiers concernés travaillent à corriger cette donnée. Dans une moindre mesure, l’adaptation des processus en interne et la mise en place de nouveaux contrôles et réconciliations génèrent également de nouvelles contraintes sur les données. Une BFI se prépare à la mise au propre des libellés de plus de 50 000 de ces opérations de marché afin que des contrôles de cohérence puissent être appliqués.
Que les données soient impactées directement ou indirectement, répondre à ces nouvelles exigences réglementaires pose une triple problématique. En premier lieu, il convient d’assurer la mise à niveau du stock, chantier très couteux car il doit s’appliquer à tout le portefeuille sans attendre qu’il ne se renouvelle de lui-même. En particulier, en BFI les coĂťts sont plus élevés car les opérations étant complexes, il est souvent nécessaire de consulter l’original du contrat pour vérifier la valeur.
Bien entendu, revoir le stock est inutile si le deuxième chantier n’est pas lancé en parallèle : mettre ces données sous contrôle. Or leur nombre important limite la possibilité des contrôles manuels. En outre, la plupart de ces données étant qualitatives, les réconciliations automatiques sont limitées et le rejet d’une opération sur laquelle une donnée est fausse n’est pas une solution, tout reporting réglementaire devant être exhaustif.
Illustration des problèmes rencontrés sur le droit du contrat : même si cette donnée était présente dans les systèmes, plusieurs banques ont constaté que cette donnée difficilement contrôlable et peu utilisée jusque-là était inexploitable. Voici quelques exemples d’anomalies rencontrées sur cette donnée qui illustrent les anomalies classiques sur l’ensemble des données métiers.
Troisième obstacle, les réglementations imposent une nécessaire réduction du délai de correction des anomalies. Les nouveaux reportings sont imposés à des fréquences plus élevées : mensuelle pour le LCR, jusqu’à intra-journalière pour EMIR ou Dodd Frank. En comparaison, elle n’était que trimestrielle pour le COREP/Bâle 2. Dès lors, les corrections doivent se faire rapidement, difficulté certaine, car elles impliquent de nombreuses tâches et acteurs (analyse, identification de la cause racine et du responsable, correction à proprement parler et redescente dans le SI de reporting).
Des réponses limitées malgré des gains certains
Les banques et en particulier les BFI (concernées par plus de réglementations) commencent à saisir l’importance de cet enjeu : les chantiers de formalisation de la gouvernance des données et de mise en place de Data Quality management sont nombreux. Mais les solutions restent peu ambitieuses et bien moindres que les initiatives similaires sur les données clients et référentielles. D’une part, une gouvernance formalisée ne garantit pas l’identification des problèmes et des anomalies majeures sont souvent constatées bien trop tardivement, quand les premiers reportings issus des nouvelles infrastructures SI sont testés, et la facture n’en est que plus importante. D’autre part, les causes racines sont globalement mal ou pas traitées et les anomalies se reproduisent. De plus, ces initiatives manquent de promotion au sein des banques comme le montrent les difficultés de recrutement rencontrées en interne. Les banques anglo-saxonnes, plus matures, commencent à désigner des Chief data officer parfois rattachés au CEO.
En termes d’outils, les fonctionnalités intégrées dans les solutions logicielles de marché restent pauvres car elles sont prévues pour identifier les anomalies basiques (données absentes ou au mauvais format) mais non pour identifier les écarts par rapport aux règles métiers complexes, et encore moins pour faciliter leur correction. Quelques banques ont mis en place des best practices dans leurs outils de reportings réglementaires. Ils comprennent non seulement des contrôles automatiques mais également un workflow automatique adressant les anomalies aux équipes et personnes responsables tout en produisant des reportings sur le nombre d’anomalies par responsabilité. Le résultat est une forte réduction de la durée des anomalies et donc une qualité d’autant améliorée.
Plus globalement, les initiatives se limitent souvent au strict minimum réglementaire car les décideurs pensent que de tels chantiers ne dégagent pas de ROI du fait de gains et pertes (corrections d’anomalies favorables) s’équilibrant au final. Mais outre les bénéfices d’une démarche proactive de gestion de la qualité des données (réduction du risque opérationnel, diminution des incidents clients, augmentation du ROI des nouveaux outils, etc.), l’amélioration de la qualité des données est un levier d’efficacité opérationnelle. Citons quelques chiffres illustrant les pertes liées à une mauvaise qualité des données : le délai moyen de traitement d’une unique anomalie s’élève à une demi-journée dans certains métiers en cumulant l’intervention de tous les acteurs. Les anomalies se chiffrant fréquemment en milliers chaque année, on perçoit immédiatement les gains possibles. Autre exemple, nos observations montrent que les valideurs de premier niveau dans des B/O détectent 5 à 15% de données fausses pouvant causer une perte de près de 50% du temps sur des opérations complexes.
Alors que la qualité des données Bâle 2 n’est pas encore complètement sous contrôle, les données réglementaires vont fortement augmenter tout comme les attentes internes et externes en termes de qualité. L’importance varie selon les lignes métiers, les BFI sont les premières concernées du fait du nombre plus important de données comme de réglementations. Mais quoi qu’il en soit, outre la garantie de relations facilitées avec le régulateur, les banques qui traiteront correctement cette problématique pourront en tirer des gains certains en termes d’efficacité de leurs fonctions supports et d’optimisation de leurs ressources rares.
Lien vers l’article publié dans Banque et Stratégie
Tags :