L’Association "Sauvons la Recherche" Groupes de travail Comités loc. et transv. Université de printemps 2011 EUROPE
Accès thématique Emploi et précarité Communiqués de SLR Actualités communiqués partenaires
Médiathèque Les archives Documentation revue de presse Tribunes et Contributions
accueil contact plan du site admin
caractères +caractères -
article
réactions (0)

Les experts

Par Dezellus, le 21 août 2009

En guise d’avertissement avant la lecture de ce texte je souhaiterais préciser qu’il ne s’agit nullement d’un pamphlet contre nos collègues qui jouent ou ont joué un rôle d’expert. Il vise plutôt à contester les principes et le vocable associés à l’expertise telle qu’elle se développe ces derniers temps dans le domaine de la recherche.

Les experts sont depuis quelques temps à la mode, on les trouve partout : les matinales des radios et télévisions, les émissions télés,... Partout et sur tous les sujets de nombreux experts sont convoqués pour expliquer et apporter leur éclairage. Dans le domaine de la science les experts sont classiquement de deux sortes : on trouve des experts auprès des tribunaux ou bien auprès de grandes entreprises, dans les deux cas c’est leur expertise d’un sujet scientifique particulier qui est exploitée pour faciliter la prise de décision. Avec l’avènement de l’AERES, l’expertise scientifique se répand sur le champ scientifique lui-même avec un objectif d’évaluation et de classement des acteurs à tous les niveaux : chercheurs, équipes, unités, etc.

La réforme de l’évaluation voulue par les différents gouvernements depuis la loi d’orientation et de programmation de 2005 a en effet conduit à la mise en place d’une agence : l’AERES dont les pratiques se veulent basées sur la transparence, la compétence et l’indépendance. Auparavant, les laboratoires associés au CNRS étaient évalués de manière quadriennale par un comité de visite du comité national qui comprenait des membres élus ainsi que des membres nommés. Avec l’AERES, tous les laboratoires sont évalués par un petit nombre d’experts tous nommés par l’agence. C’est là que se situe l’une des évolutions majeures du système. Auparavant le comité de visite avait pour objectif d’établir un rapport sur les activités du laboratoire afin d’en informer les tutelles mais également pour l’aider à définir sa stratégie scientifique. La présence de membres élus par la communauté au sein de ce comité permettait de lui donner une légitimité démocratique. Maintenant, les membres des comités d’évaluation tirent leur légitimité d’une nomination de l’agence qui fait d’eux des experts.

Le glissement est plus important qu’il n’y paraît car il marque une césure entre le comité et les membres du laboratoire : auparavant ils appartenaient à une même communauté, les premiers ayant finalement reçu mandat des seconds. Maintenant, certains sont nommés "experts" et doivent porter un regard, un jugement sur l’activité des autres. On notera par ailleurs que ce jugement se fait maintenant à un niveau de granulométrie qui est celui de l’équipe et plus seulement celui du laboratoire, risquant par là d’introduire de nouvelles césures, cette fois au sein même des unités de recherche. La relation entre une communauté et ses représentants est maintenant remplacée par une relation plus hiérarchique entre experts et évalués. Bien entendu, une grande partie des experts ne souhaitent pas entrer dans cette logique et maintiennent les anciennes pratiques mais il n’en reste pas moins que les outils et la logique qui les accompagnent se mettent en place et gagnent du terrain.

La relation hiérarchique entre l’expert détenteur du savoir et l’évalué transparaît par exemple dans l’usage des fiches d’auto-évaluation. Les membres des laboratoires doivent ainsi s’auto-évaluer avec les mêmes critères que ceux utilisés par l’expert. Celui-ci pourra alors comparer sa fiche avec l’auto-évaluation et voir si le chercheur se sur-évalue ou se sous-évalue, étant sous-entendu que le niveau de référence est celui donné par l’expert et qu’il ne peut être mis en question. On note à nouveau une césure, une rupture de symétrie dans la relation puisque l’un a les deux fiches et la qualité d’expert pour établir une comparaison. L’Académie des Sciences a noté dans un récent rapport que l’un des défauts de ce système pouvait reposer sur le fait qu’un expert ait à évaluer un chercheur d’un niveau scientifique plus élevé que lui.

Dans la logique qui est celle de l’AERES, c’est effectivement problématique puisque l’expert est, par définition, détenteur de pouvoir et de vérité et qu’il lui ait demandé de porter un jugement sur l’évalué. Mais, finalement et sans véritable surprise, cette logique n’est pas contestée par l’Académie qui la fait sienne en considérant que chaque chercheur peut-être classé mais que seul les mieux classés peuvent évaluer les autres... La vraie question ne serait-elle pas plutôt de savoir comment on définit un niveau scientifique de manière objective ? Un professeur est-il toujours meilleur scientifique qu’un maître de conférences ou bien a-t-il eu des opportunités qu’un autre n’a pas rencontré ? Le fait d’avoir un facteur H plus élevé révèle t’il des pratiques personnelles différentes (publications saucissonnées, bonne implantation dans des réseaux, ré-orientation permanente sur des sujets porteurs,...) ou un niveau scientifique différent ?

Pourquoi un chercheur nommé par une agence aurait la compétence et la légitimité non seulement pour donner un avis sur une activité de recherche, mais aussi pour juger et classer un chercheur ou une équipe ? Et, pour tout dire, un bon expert fait-il un bon évaluateur  ? Tout dépend bien entendu de l’objectif de cette évaluation mais il est évident que les qualités humaines d’écoute et de dialogue qui sont indispensables pour appréhender le contexte dans lequel une équipe de recherche évolue ne sont pas nécessairement celles des scientifiques de "haut niveau". Par ailleurs, le fait qu’ils soient nommés et qu’aucun ne soit élu, c’est à dire qu’aucun ne s’inscrive dans une démarche volontaire montrant leur engagement à consacrer du temps à ce travail d’évaluation n’est pas vraiment le gage d’une volonté d’écoute nécessairement chronophage. Le système actuel est tout à fait compatible avec une évaluation qui doit être massive, rapide et fournir des classements afin de répartir une enveloppe budgétaire dont le volume reste désespérément constant. Avec ce système on observe la prévalence du constat froid et indiscutable de l’expertise basée sur l’apparente rigueur des chiffres aux dépens du débat contradictoire et de l’élaboration collective. Cependant, ce type d’évaluation nous paraît dangereux car il manque singulièrement d’ambition et ne permet pas de tirer le plus grand nombre vers le haut. A moyen terme, le risque est grand de voir les stratégies et pratiques de recherche s’orienter uniquement dans l’objectif de produire une bonne évaluation, quitte à éviter les sujets les plus difficiles. En effet, ceux-ci sont bien souvent ingrats à plus d’un titre : le nombre de publications par an est souvent faible et la communauté qui s’y investit étant également réduite, il sera difficile de trouver un expert compréhensif !

Entendons nous bien, il ne s’agit pas ici de plaider pour une évaluation naïve, de nier toute différence en mettant tout le monde sur un pied d’égalité, il s’agit plutôt de reconnaître que la richesse d’un champ de recherche trouve son origine dans la diversité des acteurs et des pratiques. On s’aperçoit de plus en plus que dans un écosystème toutes les entités ont leur place et leur importance, et dans le même temps, de manière paradoxale il faut redoubler d’effort pour maintenir cette tolérance et ce goût pour la diversité dans nos propres métiers. En effet, une action d’évaluation de plus en plus quantitative, produite par des experts sans légitimité démocratique, à des fins de classements, qui plus est, suivie d’effets de levier budgétaire, risque d’avoir des effets normatifs délétères sur l’activité de la recherche de notre pays.

A notre avis, un bon système d’évaluation doit être un système qui vise à soutenir les laboratoires et non à diviser leurs équipes, à reconnaître les résultats, à saluer les réussites mais aussi les progressions et finalement à stimuler chacun des acteurs pour l’aider et le soutenir dans ses activités et son orientation future.