Ci-dessous un extrait d'un article paru sur le blog de David Madore , mathématicien , en réponse aux propositions de la commission pour la libération de la croissance française, visant à rendre notre recherche plus compétitive .
Objectif : Rendre notre recherche plus compétitive
Décision 29 : Financer d'avantage la recherche publique sur projet et à la performance.
"Je ne me prononcerai pas sur le reste du rapport — parce que je n'aime pas parler de politique sur ce blog — mais il y a des choses qui me font bondir et sur lesquelles je suis assez compétent pour savoir à quel point elles sont ineptes. Je ne sais pas si le but avoué de celui qui a écrit ce qui précède était d'assassiner la recherche fondamentale (sans doute pensée comme pas assez productive, pas assez compétitive, pas assez performante : toutes ces qualités ne pouvant certainement être que celles de la recherche appliquée) ou s'il n'y a simplement pas pensé (autrement dit, je ne sais pas si c'est par malveillance ou ignorance que cette recommandation est faite), mais, disons-le clairement, il n'y a pas de pire fléau pour la recherche fondamentale que le fonctionnement « sur projet » et « à la performance ».
De quoi s'agit-il ? La recherche « sur projet » signifie qu'avant de travailler sur un problème donné, le chercheur doit rédiger un programme de recherche détaillant le problème sur lequel il se propose de travailler, défendant son importance, et quantifiant les moyens dont il a besoin pour ce travail ; ce programme passe devant une commission d'experts (d'autres chercheurs) qui évaluent sa pertinence et, si tout va bien, les crédits sont débloqués. Dit comme ça, ça ressemble à une bonne idée, et il y a certainement des domaines de l'entreprise humaine dans lesquels ç'en est une : croire que c'est le cas pour la recherche fondamentale revient à faire preuve d'une fantastique ignorance de ce querecherche fondamentalesignifie. Ce n'est pas juste que les programmes en question (j'en ai vu, aussi bien du côté « demandeur » que du côté « expert ») sont un condensé de langue de bois et de pipo parce qu'il n'y a pas de moyen de faire autrement ; ce n'est pas juste que les formulaires prennent un temps délirant à remplir (temps qu'on ne passe pas à faire de la recherche, donc !) et un nouveau temps délirant à évaluer : tout ça n'est que la pointe de l'iceberg. Le vrai problème avec les « projets », c'est que ce n'est juste pas comme ça que fonctionne la recherche fondamentale :
on ne cherche pas sous forme de « projets »
Je me demande si les bureaucrates qui ont inventé ce mode de fonctionnement s'imaginent vraiment que Newton, Darwin, Turing, auraient découvert les lois de la mécanique, les mécanismes de la sélection naturelle, et les machines programmables universelles, en travaillant sur un projet qui aurait eu ce but (avec quoi pour financements ? une pomme ? un voyage aux Galápagos ?), mais ça me semble assez peu crédible (et j'aimerais bien voir les programmes qu'ils auraient écrits et les avis d'experts qu'ils auraient reçus ! aurait-on accepté ces idées ?). Alors évidemment on va m'accuser du syndrome de Galilée : tous les chercheurs ne sont évidemment pas des Newton, Darwin ou Turing — mais si on présuppose qu'on n'en aura pas, il est certain qu'on n'en aura plus.
Quant à l'évaluation de la performance, qui va avec la proposition, j'aimerais déjà qu'on m'explique ce que c'est que la performance d'un chercheur. La grande mode est de la mesurer avec des indicateurs bibliographiques numériques (un des derniers dans la série étant le h-number) qui partent tous de l'idée stupide que la qualité d'un chercheur peut se mesurer sous une forme ou une autre dans le graphe des citations des articles — c'est oublier que les articles ne sont qu'un moyen de communication scientifique, pas un système d'évaluation. Le problème est que quand on tente de mesurer quelque chose de fondamentalement impossible à mesurer, comme la performance d'un chercheur, on utilise des indicateurs qui sont par essence faux, donc falsifiables (par exemple, s'il s'agit de compter des citations d'articles, on incite les gens à se citer les uns les autres sans aucune raison scientifique), et qu'on donne des motivations extrêmement fortes à les falsifier, ce qui a un effet désastreux sur la science (multiplication inutile du nombre d'articles ou du nombre de pages de ceux-ci ou des citations ou de tout autre facteur qu'on aura décidé d'utiliser pour noter)..."
La suite de l'article est ici