Excellence et qualité
Par
, le 9 décembre 2004Aux Assises des Etats Généraux de la Recherche, les chercheurs et enseignants-chercheurs ont refusé la création de pôles d’excellence qui leur était proposée et, à la place, ont demandé que l’on promeuve la recherche de qualité.
Il est important d’expliciter ce que sous-tendait la notion d’" excellence " dans l’esprit des scientifiques, et de se pencher sur ce que l’on peut définir comme " qualité ".
Le terme d’" excellence " a une double connotation : la première associe à une estimation suprême de la qualité un titre honorifique (" excellence ") porté par les personnes de haut rang. La deuxième provient du vocabulaire managérial et implique le dépassement individuel au niveau ultime pour les besoins de l’entreprise. Dans la logique de l’entreprise, la validation de cette excellence est liée aux bénéfices ou à la survie de l’entreprise. En l’absence d’évaluation claire de l’efficacité, ce qui est le cas dans le service public, la combinaison des deux notions représente bien ce à quoi peut finir par ressembler notre administration de la recherche : un système tautologique/totalitaire.
Le terme de " qualité " a été moins galvaudé par le langage managérial. Il n’en reste pas moins qu’il peut désigner également une condition aristocratique, et que l’excellence n’est rien d’autre que le niveau suprême de la qualité. Il y a deux risques à ne pas vouloir définir la " qualité " : Le premier est de s’inscrire dans une logique de nivellement, difficile à justifier : nous voudrions la qualité, mais pas nécéssairement la meilleure (i.e. l’ " excellence "). Le deuxième est de voir le terme de " qualité " remplacer le terme " excellence ", discrédité, mais prendre en charge le même contenu sémantique, de la même manière que le terme " éthique " a remplacé le terme " morale " dans le langage courant.
Pour éviter ces écueils, il nous faut définir ce que nous entendons par " qualité ". Personnellement, considérant que le produit de l’activité scientifique est de l’information, je pense qu’il faut envisager le problème sous deux angles :
1) L’aspect " qualitatif " : la qualité correspond aux normes scientifiques qui incluent certaines méthodes et une démarche faite de vérifications et de réfutations. C’est en quelque sorte une garantie de conformité. A titre de comparaison, une information qui paraitrait dans un journal d’information serait vérifiée avant d’être publiée, et dans quelques cas démentie.
2) L’aspect " quantitatif " : certains résultats scientifiques ont plus d’importance que d’autres. De même que certaines informations constituent des scoops et font les titres des journaux, tandis que d’autres sont reléguées aux pages intérieures, les résultats scientifiques peuvent avoir un impact plus ou moins important, qui dépend du moment et des modes. Le refus de considérer des différences de valeur entre les résultats scientifiques conduirait à faire une recherche dépourvue d’intérêt.
Pour revenir à notre comparaison journalistique, l’évaluation " objective " de cette " valeur quantitative " de l’information est le tirage du journal qui la publie. Pour les articles scientifiques, c’est le nombre de citations de l’article par les autres scientifiques. Cette information n’est disponible qu’après un délai plus ou moins long et varie dans le temps. On lui préfère donc l’évaluation par le facteur d’impact des revues dans lesquels les articles sont publiés. Beaucoup de critiques ont été faites sur ces facteurs d’impact, mais il s’agit d’un des meilleurs critères d’évaluation " quantitative " dont nous disposons.
Les deux aspects ne sont pas indépendants : si l’information contenue dans un article est fausse, le fait qu’elle soit citée ou publiée dans une revue de facteur d’impact élevé aggrave les choses, car cela porte préjudice aux chercheurs. Même si une partie de l’évaluation qualitative dépend des revues, qui imposent leurs propres critères de normes méthodologiques, in fine, l’évaluation qualitative repose sur les scientifiques, qui devront faire appel au maximum d’expertises, y compris provenant de pays étrangers.
L’évaluation " quantitative ", si elle s’adresse à une population d’individus, quelle que soit ces imperfections, présente l’avantage d’être le seul obstacle à la dérive bureaucratique du système.
Prenons en deux exemples :
1) Jusqu’à présent, je me suis penché sur la notion d’" excellence " mais pas sur le terme " pôle ". Ce dernier désigne la concentration de personnes et de moyens, pour des raisons d’efficacité, ce qui a justifié son adoption dans le rapport final des Etas Généraux. Le risque, et c’est ce à quoi l’on assiste fréquemment au cours des regroupements de chercheurs ( cela a été souligné également par nos collègues des sciences humaines), est que les considérations d’ordre administratif prennent le dessus sur l’efficacité. En quantifiant la "productivité " de l’activité scientifique, ce qui est faisable dans le domaine biomédical, et en la présentant sous forme d’un rapport entre la valeur " quantitative " de l’activité et le nombre de personnes, on dispose d’un moyen de s’opposer à la dérive administrative de la recherche.
2) Malgré les recommandations des assises de la recherche, le gouvernement a décidé d’octroyer des financements sur des thèmes précis. C’est inévitable : dans un pays dominé par les médias, il est plus prestigieux de déclarer donner de l’argent pour la recherche sur le SIDA , le cancer, les maladies orphelines, etc..., plutôt que de donner en une fois ce qui va être attribué aux différents domaines. Je pense que l’attitude raisonnable des scientifiques consisterait à continuer à défendre la " productivité " de la recherche, en divisant, au cours de l’évaluation, la valeur " quantitative " de l’activité, par le taux de financement.
En conclusion, la définition la plus précise possible de ce que nous appelons " qualité " devrait, plutôt que nous contraindre, nous libérer des dérives administratives ou autoritaires.