« Il n’existe pas d’autre activité humaine où autant de foi est basée sur aussi peu de science que la finance ». Scientific American, le 26 octobre 2011.
Le crash financier de 2008 est en grande partie issu de l’utilisation de modèles financiers qui, malgré leur complexité, ne reflètent qu’une partie de la réalité économique et ne peuvent mener qu’à des déboires pour les peuples, les agents de la finance arrivant toujours, eux, à tirer leur épingle du jeu et tirer profit de toutes les situations. Ce pourquoi ils refusent encore et toujours la remise en cause de leurs méthodes et notamment la titrisation, principal élément déstabilisateur du système car il occulte la réalité des risques des actifs (pourris ou non) sous-jacents au « titre » proposés au spéculateur.
Bien sur, la finance n’est pas le seul domaine faisant usage de modèles dont la fiabilité est discutable : les questions très complexes, par exemple de l’érosion des côtes, de la sécurité nucléaire ou encore du climat, utilisent des modèles de systèmes dont on ne connait pas tous les paramètres et/ou pour lesquels on a peu d’information expérimentale. De nombreux systèmes naturels étant non linéaires, ils sont très sensibles aux conditions initiales (l’effet papillon) et de très petites modifications de ces dernières au sein des modèles ont des effets très importants sur les prédictions. Mais de là on pourrait inférer que, en principe, si les conditions initiales d’un système donné sont connues et que le modèle est lui-même une représentation parfaite de la réalité, le modèle fera une prédiction correcte.
Et bien non, car même un modèle a priori parfait nécessite d’être calibré et que les méthodes connues de calibration génèrent par elles-mêmes des déviations importantes. C’est en tout cas la conclusion d’une récente étude menée par Jonathan Carter visant à déterminer le comportement de modèles géophysiques que l’on sait être imparfaits. Pour ce faire et établir une échelle de comparaison, Carter commença par créer un modèle d’un processus géophysique hypothétique dont le modèle était, par définition, la représentation parfaite et basé sur des paramètres physiques tout à fait arbitraires. Il demanda alors au modèle de générer des données couvrant trois années et obtint des data sets parfaitement cohérents.
Il lui fallu alors, pour respecter la procédure scientifique, calibrer son modèle c’est-à-dire introduire les paramètres physiques qui correspondent précisément au processus physique que l’on veut modéliser. Il utilisa une technique de calibration classique pour ce qui ne devait être qu’une formalité – il semblait effectivement évident que la technique de calibration, basée sur l’historique des résultats actuels du modèle parfait, génèrerait les mêmes paramètres que ceux d’origine.
Et bien non. Il se trouva que plusieurs sets de paramètres différents permettaient au même modèle d’arriver au même résultat. Ce qui est logique sur le principe, prenons un simple exemple arithmétique : on peut arriver à la réponse « somme de l’addition = 10 » avec une infinité de variables différentes : 1+9, 2+8, 3+7 etc… Mais alors quels paramètres choisir quand on ne connait pas le résultat ? Carter poursuivit ses tests et obtint d’énormes différences entre les résultats de son modèle calibré et le modèle original. Le processus de calibration avait donc transformé un modèle a priori parfait en un modèle très peu fiable.
Pour Carter ce phénomène s’applique à tout modèle ayant subi une calibration, dont les modèles financiers. Et de fait, les programmeurs des modèles financiers sont constamment obligés de recalibrer leurs modèles afin de garder un semblant de réalisme. Or un modèle que l’on doit constamment recalibrer n’est pas un modèle au sens généralement accepté du terme, c’est au mieux une arnaque.
Source: http://www.scientificamerican.com/article.cfm?id=finance-why-economic-models-are-always-wrong&WT.mc_id=SA_
Billet en accès libre sur http://rhubarbe.net/blog/2011/11/05/la-modelisation-financiere-est-une-arnaque/