Quelques mois auparavant, je vous avais parlé d'un article du chercheur danois Bent Flyvbjerg concernant l'imprécision des études de prévisions de trafic . Je reviens aujourd'hui sur ce sujet pour vous interpeller non seulement sur les méthodes de modélisation de la demande en trafic, mais aussi sur la démarche même de modélisation, et plus "philosophiquement", sur la planification des transports.
Au regard du montant des investissements en infrastructures de transport, et de l'impact de ces dernières à long terme sur le tissu économique et social, il est rapidement apparu essentiel d'être capable de prévoir la demande en transport afin de procéder à une planification rationnelle des différents équipements. Pourtant les résultats de la planification des infrastructures apparaissent aujourd'hui comme très souvent hasardeux.
Commençons par le commencement: un modèle de trafic s'appuie sur une collecte de données la plus exhaustive possible des pratiques de mobilité d'une population. Meilleure est la connaissance statistique de ces pratiques, plus précis sera le modèle. A l'inverse, si ces données ne sont pas à jour, imprécises et douteuses, le modèle n'en sera que plus incertain. Dans le Grand Nouméa, les données en la matière s'avèrent très incomplètes et imprécises, il convient donc de s'interroger sur la pertinence de la réalisation d'études de trafic pour prévoir les équipements. Mais nous ne sommes pas au bout de nos peines dans cette agglomération vis-à-vis de la démarche modélisatrice, nous verrons cela tout au long de l'article. Il convient ici de remarquer que certaines villes, comme Montréal, ont su mettre en place des outils de collecte de données qui permet d'avoir un regard bien plus précis sur les habitudes de la population. Ainsi, dans la région métropolitaine de Montréal, des enquêtes origine-destination sont-elles réalisées tous les cinq ans, par téléphone, sur un échantillon très important de plus de 70 000 ménages (à comparer aux 5000 unités de l'enquête-ménage du Grand Lyon, par exemple). Toutefois ces enquêtes sont souvent longues à établir et à traiter, et ne sont réalisées qu'à des intervalles de temps non négligeables. Aussi, les données utilisées pour construire le modèle sont-elles toujours "vieilles" de quelques années.
Lorsqu'on établit un modèle, la première étape consiste à le tester sur la situation qui correspond à nos données, pour vérifier si le modèle parvient à distribuer les trafics de la même façon que ce qui est observé dans la réalité. Cette opération est le calibrage du modèle. Généralement, il est question de jouer sur quelques coefficients qui font levier jusqu'à ce que le résultat du modèle à t=0 décrive la réalité montrée par la collecte des données. Cette opération de calibrage fait souvent grandement appel à d'autres qualités que la rationalité (en particulier l'intuition), et pour une même situation, deux équipes de modélisation arrivent généralement à des résultats différents. Car, lorsque ces coefficients sont retouchés, finalement, cela correspond à un ajustement mathématique mais en aucun cas à une description de la réalité.
Une autre difficulté des modèles provient du nombre important de variables à calibrer, alors même que ces variables ont de grandes influences sur les résultats du modèle. De sorte que le modélisateur ne maîtrise pas toujours pleinement ce qu'il fait.
Par ailleurs, actuellement, en matière de macro-simulation, c'est à dire à l'échelle d'une agglomération comme le Grand Nouméa, les seuls modèles véritablement opérationnels (c'est à dire qui n'exigent pas trois chercheurs à temps plein pour concevoir et corriger en permanence le modèle) sont les modèles agrégés à quatre étapes procédant par approche séquentielle classique. Que veut dire ce charabia ? Dans ces modèles, le territoire se découpe généralement en un certain nombre de zones dans lesquelles la population se trouve entièrement concentrées en un point (le centroïde de la zone), cela, c'est l'agrégation, destinée à simplifier la répartition géographique. Ce point émettra les déplacements selon les caractéristiques de mobilité de sa population. Les quatre étapes font référence à une séquence logique qui consiste à en premier lieu prévoir le nombre de déplacements qui sera généré par la population (étape de génération), puis à distribuer ces déplacements en fonction des lieux d'attractions (emplois, écoles, etc.) (étape de distribution), ensuite à constituer le partage modal entre les différents modes de transport (voiture particulière, transport collectif, etc.)(étape du partage modal) et enfin, à affecter les trafics sur le réseau routier ou de transport collectif (étape de l'affectation). La génération des déplacements dépend pleinement de la qualité des données dont nous disposons. La distribution, elle, s'avère plus délicate car il est difficile, sans enquête origine-destination, de déterminer comment se distribuent les déplacements sur le territoire. Pour cela, il est établi des matrices de distribution généralement simplificatrice, sur le modèle gravitaire (lié entre autres à l'accessibilité d'une zone, qui dépend elle de l'affectation, de l'heure de l'affectation, etc.). Passons sur la délicatesse du report modal, qui dépend de la qualité du service, du prix du pétrole, etc pour en venir à l'affectation sur le réseau qui dépend elle de nombreux paramètres comme la capacité de ce dernier (difficile à déterminer) afin de déterminer les équilibres de congestion pour réaffecter le trafic, avec parfois des évènements contre-intuitifs impossible à prévoir, comme le paradoxe de Braess . L'ensemble de cette procédure s'avère très simplificatrice, par exemple elle ne prend pas en compte le chaînage des déplacements, et les comportements qui sortent des logiques pendulaires. Par ailleurs, chaque centroïde de zone est connectée au réseau réel par des liens. La détermination de la prévalence de certains liens par rapport à d'autres est particulièrement irréelle, puisqu'évidemment la population ne se trouve jamais concentrée en un centroïde, et largement pifométrique. Ainsi, les modèles de planification agrégé par approche séquentielle classique à 4 étapes présentent-ils d'énormes lacunes et imprécisions soulignées par de nombreux chercheurs, mais comme il s'agit du seul modèle opérationnel, c'est ce dernier qui fait foi aujourd'hui, à de très rares exceptions près.
Réfléchissons maintenant au buts de la modélisation et aux postulats implicites de la démarche. Le premier de ces postulats, qui n'est pas des moindres, consiste à déduire la future demande de l'état présent. Cela présente deux biais importants. D'une part, la demande est ici confondue avec la fourniture de service, puisqu'il n'est pas pris en compte les déplacements qui ne se font pas par manque de service (en particulier lorsqu'il s'agit de prévoir la demande en transports collectifs). D'autre part, et cela est essentiel, le phénomène de périurbanisation est ici totalement nié puisque les modèles ne prennent pas en compte l'urbanisation par extension de la ville, avec une demande qui ne s'inscrit pas en continuité de l'existant et qui ne peut donc pas être déduite de l'état actuel. Dans le prolongement de ce constat, on remarquera même que la démarche de modélisation omet totalement les non-utilisateurs des transports, alors que la compréhension de leur immobilité devrait constituer un sujet de réflexion et que ces "immobiles" ne devraient pas être écartés de tous les processus décisionnels. Ainsi, les planificateurs portent bien trop peu d'attention à l'influence contraignante du système de déplacements existants. Par ailleurs, ces modèles oublient bien souvent la demande latente de trafic et la capacité d'une nouvelle infrastructure à générer du trafic et de nouveaux déplacements, de sorte qu'ils ne prévoient pas la saturation immédiate, ou à très court terme, due à et sur cette nouvelle infrastructure.
Par ailleurs, le processus de modélisation s'avère souvent perturbé par le référentiel de valeurs des modélisateurs et des donneurs d'ordre, en particulier sur la priorité des problèmes à résoudre. Ainsi, l'attention est-elle entièrement portée sur la gestion des heures de pointe sous la pression des propriétaires de voitures et d'une vision de la modernité qui longtemps à fait du transport individuel une panacée, et qui a conduit au non-développement des autres modes. Pourtant, au lieu de modéliser des trafics en heure de pointe, il aurait été possible d'établir des études de transport pour observer les effets d'horaires décalées en fonction des quartiers, d'incitatifs fiscaux au détriment de l'automobile, d'augmentation du coût des stationnements, ... L'énergie mise dans la prévision pourrait être mieux utilisée ailleurs.
Les modèles de transport devraient ainsi, pour beaucoup de chercheurs, constituer avant tout un moyen de comprendre le présent afin de prendre les décisions qui permettront de s'adapter au mieux aux modifications des usages du futur. Pourtant, ce n'est pas là l'utilisation qui en est fait, pourquoi ? En premier lieu, il y a l'attitude des modélisateurs. Ces derniers ne prennent pas les précautions nécessaires pour expliquer que leurs modèles n'est qu'un outil mathématique répondant à de nombreuses hypothèses qui ne sont, et ne seront pas, forcément vérifiées. Ces derniers abusent ainsi généralement de leur statut en s'exprimant à des élus qui ne comprennent rien ou pas grand chose à leurs discours, et qui les placent sur un piédestal (ce qui peut-être, convenons-en, tout à fait gratifiant pour l'égo). Le modélisateur agit en quelque sorte dans la position d'un prêcheur face à une assemblée d'analphabètes, plus encore dans un contexte néocalédonien où les expertises locales manquent et où tout ce qui vient de la métropole est béni. Mais, à la décharge des modélisateurs, il convient de constater que les élus sont généralement démandeurs de modèles clairs et limpides, plus encore lorsque ces derniers permettent d'appuyer la construction d'infrastructures a priori électoralement payantes. Le modèle n'est plus une façon de comprendre le réel, pas même un outil d'aide à la décision, mais une justification politique d'un projet. Nous sommes bien loin là de la rationalité qui animait les premiers chercheurs.
Mais si les modèles sont à ce point défectueux, pourquoi continuer à s'appuyer sur leurs conclusions ? Nous venons de voir l'intérêt politique qu'il y a dans la modélisation, lorsqu'elle peut permettre de justifier une décision (et n'importe quelle modélisateur un peu habile peut modifier quelques coefficients afin de conclure à la solution qui convient aux élus, qui, faut-il le rappeler, ne sont autres que ses clients : ce sont eux qui le payent !). A Grenoble, ainsi, dans le feuilleton de la rocade nord, un des épisodes concernait la falsification de modèles de trafics... Par ailleurs, les concepteurs de très couteux logiciels de modélisation n'ont aucun intérêt à faire part des limites de leurs logiciels, ou de leurs inadaptations aux données existantes. De même, les modélisateurs doivent justifier leurs existences. Enfin, il y a un manque certain de contre-experts, d'employés des administrations à même de souligner la faiblesse des modèles, ou de liens plus renforcés entre les collectivités publiques et le monde de la recherche scientifique dans le domaine de la planification des transports.
Je me permets ici un aparté. Quand je vois la difficulté à modéliser les transports d'une ville, je me dis que les autres modèles qui ont pris le pouvoir sur nos vies doivent connaître les mêmes faiblesses. Si une telle conclusion invite trivialement à la plus grande circonspection vis-à-vis des modèles économiques, qu'un bref regard sur des événements récents illustre joliment, elle conduit à une interrogation plus profonde pour une problématique aux enjeux dramatiques : le réchauffement climatique. En effet, les modèles prédictifs en climatologie font l'objet de nombreuses critiques qui remettent en question la congruence entre l'activité humaine et la hausse des températures sur la planète. Mais, très probablement, les modèles qui tendent à montrer cette congruence sont-ils aussi critiquables que ceux qui prétendent montrer le contraire. Peut-être manquons-nous ici d'humilité, ou à tout le moins, de précaution dans l'utilisation des résultats. Cependant, il me semble que l'Homme se situe ici dans la posture de Pascal lorsqu'il a, dans les Pensées, énoncé son célèbre pari. La lutte contre le réchauffement climatique est effectivement un pari où nous avons beaucoup à gagner, même si la cause anthropique du réchauffement climatique n'est pas vérifiée.
Cela m'amène naturellement à la conclusion. Mon professeur d'économie et de planification des infrastructures m'expliquait il y a quelques mois les différentes manières d'aborder la planification. Soit par une approche pro-active c’est à dire en anticipant le futur, par des modèles toujours plus complexes, et finalement jamais moins faux, afin de prévoir les aménagements nécessaires à la bonne exécution de ce futur. Nous entrons ici dans la prospective afin de deviner les conséquences des nouvelles technologies. Cette vision est finalement anti-humaniste, au sens philosophique, c’est à dire qu’elle considère que l’homme n’a pas de prise sur son futur, un peu comme la vision heideggérienne de la technique comme développement de l’étant.
Une autre vision est l’approche réactive, c’est à dire qu’au fur et à mesure que se déroule le futur, on n’essaie de s’y adapter. C’est une approche pragmatique, voire incrémentaliste. On fait un petit pas et voit ce qui se passe, et après on fait un petit pas de plus en s’adaptant, en réagissant à ce qu’il vient de se passer.
Enfin, il y a l'approche interactive (humaniste ?) qui dit simplement: “mais le futur, nous sommes en train de le construire !". Cette approche est certes un peu naïve, et comme le dit mon professeur, très américaine dans sa foi en l’homme. C’est néanmoins une approche qui me plait. Et vous ?
François Serve