À propos de productivité dans l'informatique

Publié le 11 novembre 2024 par Patriceb @cestpasmonidee
Alors que les grandes banques se trouvent aujourd'hui dans une énième vague de réduction des coûts, qui affecte particulièrement, comme toujours, leurs départements informatiques et, par ricochet, leur capacité d'innovation, McKinsey propose de réfléchir à une voie plus prometteuse… consistant à viser l'optimisation de leur productivité.
D'emblée l'article souligne l'obstacle principal, à savoir que les instruments de mesure nécessaires n'existent pas, dans la plupart des institutions financières. En effet, le niveau de dépense des DSI est parfaitement connu – ce qui explique pourquoi il est ciblé dans les périodes de « rationalisation » – mais, malgré tous les discours traitant de retour sur investissement, celui-ci est considéré en amont des projets, en vue de les valider ou de les rejeter, mais il n'est jamais réellement évalué après déploiement.
Or les rares exemples d'établissements maîtrisant la rentabilité concrète de leur technologie démontrent la possibilité d'autres moyens de réaliser des économies, non pas en coupant des budgets à l'aveugle – puisque, une fois évacuées les fortunes affectées au maintien en condition opérationnelle des systèmes en place, nul ne sait ce qui dégage vraiment de la valeur faute d'indicateur approprié – mais en appliquant quelques recommandations propres à renforcer l'efficacité là ou elle compte.
La première d'entre elles est triviale mais totalement négligée, par méconnaissance de la réalité du terrain par les responsables. Il s'agit tout simplement de développer l'automatisation des tâches : bien que les prétentions soient élevées, il s'avère que les équipes perdent une énergie considérable à provisionner des environnements de travail, à réaliser la partie souvent importante des tests qui restent manuels, à installer les livraisons en production (ne serait-ce qu'en raison des circuits de décision)… Le temps passé à écrire du code est minime (inférieur à 50% du total en moyenne) !

Je ne m'attarderai pas sur la deuxième proposition de McKinsey, d'adopter des outils à base d'intelligence artificielle (générative) afin d'accélérer les projets. Entre la perte de vue de la priorité précédente qu'elle a toutes les chances d'entraîner et son incompatibilité (voire incohérence) avec la dernière préconisation (ci-après, sur l'expertise), elle relève selon moi du syndrome de la peur de rater quelque chose (FOMO en anglais) exacerbé par les cabinets de conseil, que j'ai déjà dénoncé par ailleurs.
La suggestion suivante est à nouveau de celles dont on devrait s'étonner qu'il faille encore la marteler, puisqu'elle correspond à un des piliers des méthodes agiles que les grands groupes se vantent d'avoir mises en œuvre… Pourtant, qui pratique l'intégration des contributeurs métier et informatiques (infrastructure comprise) au sein d'une équipe autonome, avec un objectif commun, simplifiant et rendant plus fluides les interactions, aboutissant ainsi à un résultat idéal dans les meilleurs délais ?
Enfin, le dernier volet concerne le recrutement, avec un constat qui risque de heurter les habitudes mais qui devient de plus en plus actuel avec l'évolution de l'outillage : il vaut mieux, pour le rendement, privilégier des profils de haut niveau, peu nombreux, que des armées de professionnels peu expérimentés, prestataires externes en tête. La difficulté est alors de parvenir à les séduire et de s'assurer leur fidélité, surtout quand des décennies de préférence pour les débutants bon marché ont fait disparaître le vivier de candidats potentiels (reconvertis en managers plus ou moins compétents).
En résumé, les recommandations de McKinsey ne présentent guère d'originalité… mais elles restent essentielles parce qu'elles ne sont pas appliquées dans l'immense majorité des banques, qui ne perçoivent encore leur département informatique que comme un centre de coûts, alors qu'il est désormais le moteur de leur activité.