A propos de Master Data Management (gestion des données de référence) et pour rebondir sur l’article de Jean-Michel Franco, Directeur des solutions, Business & Décision sur http://www.decideo.fr/2010-l-annee-du-Master-Data-Management_a3592.html
Effectivement, il semblerait que le marché des outils de gestion des données de références soit en train de passer à une vitesse supérieure. Et bien que le MDM soit une notion assez ancienne, plusieurs facteurs étaient nécessaires pour que ce type de solution puisse être légitime dans nos organisations.- L’approche d’architecture, SOA entre autre, était nécessaire pour appréhender une logique d’ensemble. Cette approche a permis de mûrir des populations techniques et a commencé à tisser des liens vers les directions métier (cela reste néanmoins une discipline assez technique). Cette approche a aussi permis d’obtenir un fort niveau de maturité sur les couches techniques de gestion de flux et ainsi apporter un développement de la brique « communication inter application »
- Les aspects réglementation et transparence sont des moteurs forts du moment. Ce sont des contraintes structurantes, et financièrement directement préjudiciables. Elles imposent une traçabilité de bout en bout, et forcent ainsi l’organisation à revoir les cycles de vie de ses données. Non sans mal car elles touchent à la base l’information du métier plus que la donnée des applications. Mais implique la maitrise de ces dernières. Du coup le niveau de maturité augmente dans la maitrise des liens entre l’information métier (un ordre de prélèvement) avec les données associées (les transactions réalisées ainsi que les contextes associés (clients, ..))
- Le décloisonnement de la donnée avec le contenu. Les documents et les données « commencent » à s’interconnecter car alimentant de mêmes processus métier. A un ordre de prélèvement (non géré à l’origine par une gestion électronique de document) est associé des transactions mais aussi des contrats, et autres documents difficilement gérables par des procédés automatisable (d’ETL par exemple). Ceci apporte un autre niveau de maturité dans l’acceptation et la compréhension des enjeux autour de l’information comme élément incluant la « data » et le « content ». On peut d’ailleurs faire apparaître l’explosion des projets de dématérialisation en ce moment.
- Il y a aussi :
- la situation de crise qui implique une reconsidération des processus en vue d’optimiser et de réduire les coûts de traitement,
- les évolutions culturelles qui ont apporté des clients plus capricieux, plus volatiles, et surtout très exigeant en terme de qualité. Ceci implique aussi une reconsidération de ce qui touche la qualité,
- le web2.0 qui a apporté des facilités de communication induisant des facilités dans la dégradation d’une image de marque (un tweet bien formulé peut ruiner la réputation d’une entreprise). Et là aussi cela touche la notion de qualité autour de l’information. (cf l’explosion de la nouvelle fonction de community manager)
- de connaître ses informations métier (ou actifs informationnels) ainsi que les contraintes associées (risque, réglementation, coût, criticité, …), puis d’en décliner les règles de gestion.
- de faire en sorte que cette information perdure et reste à jour dans le temps (gestion des référentiels, suivi de la réglementation, mise à jour des règles de gestion métier ou non, …)
- d’être une cellule proactive afin d’anticiper et de maitriser d’éventuelles situations de crise (litige, fuite d’information, transformation de l’entreprise, e-discovery, …)