Ce sont les machines d'une autre époque, sans internet ni smartphone, dont la mission consistait à faciliter la tâche des conseillers installés à un poste fixe dans une agence physique. Cinquante ans plus tard, elles prennent toujours en charge une part importante des traitements de la plupart des institutions financières et bien que ceux-ci soient aujourd'hui radicalement différents de l'automatisation d'autrefois, sous la pression des nouvelles attentes des clients, leur modèle d'architecture reste globalement inchangé.
Certes, IBM a continuellement amélioré son produit (et son écosystème) et l'a régulièrement enrichi de capacités additionnelles (la dernière mouture de z/OS met, par exemple, l'accent sur l'intelligence artificielle). Pourtant, au fil du temps, ses utilisateurs ont dû introduire dans leur panoplie des composants supplémentaires, notamment dans le but de supporter efficacement les usages en ligne de leurs clients reposant sur des applications qui n'ont jamais été conçues ni vraiment modernisées dans ce but.
En première ligne des débats sur le poids de l'histoire, le matériel n'est pas spécialement en cause (après tout, les ordinateurs d'IBM fonctionnent bien), mais plutôt l'inertie de ses adeptes. Profitant de la stabilité de leur infrastructure, ils ont rarement rencontré une occasion de remettre en cause leur investissement et ont donc laissé s'accumuler le patrimoine logiciel qu'elle héberge sans prendre garde à son obsolescence. En revanche, dès que la question est soulevée, elle doit couvrir la pyramide dans son ensemble.
En effet, dans l'hypothèse d'une rénovation totale, il subsiste bien peu d'arguments en faveur du « mainframe » face à des générations de technologie plus récentes, aussi robustes, moins coûteuses, pour lesquelles les compétences sont (assez) facilement disponibles… Les critères brandis sont généralement suspects ou fallacieux (dont celui de la sécurité, évoqué par Les Échos, qui n'est, dans une large mesure qu'un leurre dangereux, comme le soulignent les alertes émises de temps à autres).
Apparemment, les décideurs du Crédit Agricole tiennent un raisonnement similaire et aboutissent désormais à la seule conclusion envisageable : l'heure est venue de dégager la banque de sa dépendance aux « mainframes » d'IBM (qui porteraient 80% de ses processus), de manière à mieux capitaliser sur les outils de pointe et, probablement, à terme, rationaliser et simplifier les fondations du système d'information (car les strates de composants successives ont souvent conduit à un galimatias inextricable).
De toute évidence, un chantier brut de remplacement serait titanesque et paraît bien trop risqué pour l'entreprise. Alors, elle procèdera par étapes, dont la première, qui devrait s'étaler au moins jusqu'à 2025, comportera trois axes complémentaires : l'endiguement (éviter au maximum le déploiement de nouvelles fonctions sur le « mainframe »), la rationalisation (optimiser les usages existants) et la ré-urbanisation (migrer ce qui peut l'être sur des systèmes modernes). La sortie complète risque de se faire attendre…
Toujours est-il que, si l'initiative est confirmée, le Crédit Agricole serait une des rares institutions financières (en particulier en France) à définir et exécuter une stratégie formelle de retrait, quoique très lointaine, vis-à-vis d'un élément incontournable de l'informatique du secteur depuis un demi-siècle. La rupture avec la passivité historique observée jusqu'à maintenant marque un revirement important, qui pourrait inspirer ses principaux concurrents, tous placés dans une situation plus ou moins identique.