Après onze années d’existence, le Haut Conseil de l’Evaluation de la Recherche et de l’Enseignement Supérieur (Hcéres), qui a fait suite à l’AERES créée en 2006 (Agence d’Evaluation de la Recherche et de l’Enseignement Supérieur), se retrouve dans une situation délicate qui peut s’analyser à partir des trois questions suivantes : stop ? Encore ? ou autrement ?
Stop, car le Hcéres n’a pas fait la preuve de sa capacité à faire de l’évaluation un outil de progrès pour notre système d’enseignement supérieur et de recherche (ESR). Au-delà des évolutions marginales, les méthodes d’évaluation du Hcéres restent ancrées sur une approche normative ciblant une hypothétique mesure de la performance. Malgré des annonces de simplification, le système d’évaluation proposé par le Hcéres présente une grande complexité et conduit à la production d’un nombre très important de rapports qui posent la question de leur impact réel. Les présidences successives du Hcéres n’ont pas été capables d’innover pour proposer des méthodes réellement adaptées aux enjeux de l’autonomie des établissements dans l’esprit des standards européens (ESG), comme c’est le cas dans d’autres pays plus avancés sur ce sujet.
Les vagues d’évaluations se suivent sans qu’il soit possible de percevoir une dynamique auprès des entités évaluées qui conçoivent encore largement l’évaluation comme une charge imposée plutôt qu’une opportunité, et expriment même souvent une certaine défiance vis-à-vis du système d’évaluation.
Le ministère de l’enseignement supérieur et de la recherche contribue largement à cette situation. Il affecte en permanence de nouvelles missions d’évaluation au Hcéres, sans pour autant produire des bilans permettant d’appréhender l’impact sur ses propres décisions des rapports du Hcéres. Les atermoiements répétés pour la nomination du président du Hcéres conduisent systématiquement à de longues périodes d’intérim particulièrement préjudiciables au fonctionnement du Hcéres, et qui donnent le sentiment d’un manque d’intérêt à son égard. Les deux derniers appels à candidatures publiés par le ministère pour cette présidence sont très éclairants, faisant apparaître une conception très datée du rôle de l’évaluation (cf brève N°17). Le ministère n’a manifestement pas pris la mesure de l’impact que pourrait avoir le Hcéres au service d’une autonomie réelle et exigeante des établissements. A noter, enfin, des recouvrements et des ambiguïtés dans les missions attribuées par le ministère au Hcéres et à l’IGESR ,qui ne facilitent pas une distinction claire entre inspection et évaluation.
Certains députés se sont récemment interrogés sur l’utilité du Hcéres au point de proposer la suppression de l’ensemble des 24M€ de budget qui lui sont affectés. A partir de ces différents constats et dans le contexte actuel du budget de l’Etat, on peut effectivement se demander si un tel budget se justifie, même si la suppression du Hcéres n’est pas souhaitable car elle placerait la France dans une situation particulièrement délicate dans le cadre des accords européens.
Encore, car le Hcéres est en ordre de marche. Il est capable de gérer, dans les délais impartis, les différentes vagues d’établissements définies par le ministère. Il a un savoir-faire dans trois domaines : l’évaluation institutionnelle des établissements, l’évaluation des différentes structures de recherche et l’évaluation des formations. En 2023, le rapport d’activité du Hcéres rappelle, une fois de plus, une activité très dense avec 51 rapports pour les établissements, 484 pour les unités de recherche et 676 pour les formations. Les documents méthodologiques pour la prochaine vague d’évaluation montrent que la philosophie de l’évaluation proposée par le Hcéres n’évolue pas significativement, signe d’une certaine confiance du Hcéres dans les approches qu’il utilise.
Le ministère semble vouloir étendre les domaines d’intervention du Hcéres et focaliser un peu plus les évaluations sur la mesure des résultats à des fins de « régulation de l’écosystème d’enseignement supérieur et de recherche », comme en témoigne l’appel à candidatures pour la présidence du Hcéres. Il faudrait sans doute augmenter le budget du Hcéres pour répondre à ces nouvelles missions, ce qui n’est pas vraiment dans l’air du temps…
Les avis exprimés par les présidents et directeurs d’établissements dans les rapports d’évaluation institutionnelle sont globalement positifs et eux-mêmes ne semblent pas souhaiter de transformation importante des pratiques du Hcéres. De même, les différentes conférences représentant les établissements s’expriment peu sur le sujet de l’évaluation, ce qui semble confirmer qu’il n’y a pas de révolution attendue dans ce domaine.
Il peut donc être envisagé de poursuivre, sans grands changements, l’activité du Hcéres qui remplit ses missions et s’inscrit parfaitement dans une approche très centralisatrice et dans les multiples rouages de la technostructure en charge du pilotage de l’ESR.
Autrement, car il est temps de se poser la question d’une réforme en profondeur de nos approches de l’évaluation pour en faire un outil plus utile. Ce blog a largement abordé ce sujet et montré que notre ESR a besoin de mieux exploiter les leviers potentiels de l’assurance qualité pour développer une gouvernance et un pilotage plus stratégiques.
Autrement car l’évaluation institutionnelle pourrait être adaptée aux enjeux de l’autonomie des établissements en les responsabilisant davantage et en ciblant leur capacité à démontrer l’efficacité de leur stratégie et de leur pilotage (cf article 28). Cette évaluation institutionnelle pourrait être réalisée en amont d’une évaluation limitée à quelques unités de recherche et formations (cf infra).
Autrement car l’évaluation des unités de recherche pourrait être ciblée sur d’autres aspects que l’analyse et la qualification des produits de la recherche qui devraient relever de la responsabilité de chaque établissement. Les dimensions de la stratégie de recherche de l’unité, de la qualité de son système d’information et de pilotage, et de sa capacité à organiser une dynamique de progrès pourraient être les points de focalisation de l’évaluation (cf article 22). Est-il indispensable d’évaluer systématiquement toutes les unités, alors que certaines disposent déjà de processus internes proches d’une évaluation ? Ne peut-on pas envisager un dispositif en concertation avec l’établissement et en lien avec les résultats de l’évaluation institutionnelle qui permettent de cibler l’évaluation uniquement sur certaines unités en transformation ou en difficulté ?
Autrement car l’évaluation des formations pourrait être réalisée avec l’objectif central de vérifier la réalité opérationnelle de la stratégie de formation de l’établissement. L’établissement pourrait identifier lui-même la liste des formations pour lesquelles il garantit la qualité de leur fonctionnement, avec la contrepartie d’accepter l’évaluation d’un échantillon limité de formations.
Autrement car une simplification est nécessaire avec la contrepartie d’une exigence accrue de responsabilisation de chaque établissement.
Autrement car la tendance actuelle à vouloir tout évaluer en multipliant les missions du Hcéres est contreproductive. Il est plus pertinent de cibler l’action du Hcéres sur des évaluations à forte plus-value. Il y a par ailleurs un travail de coordination à réaliser entre les missions de l’IGESR et du Hcéres. Cela permettrait de mieux distinguer ce qui relève du contrôle et de l’inspection, en lien avec les mécanismes de régulation de l’Etat (le sujet actuel des formations du secteur privé constitue un bon exemple), et ce qui relève de l’évaluation formative, constitutive de l’assurance qualité et du développement de l’autonomie et de la performance des établissements.
Autrement car le rapport coût/gain n’est pas en faveur du Hcéres : la structure coûte trop cher pour le faible gain qu’elle apporte. Il est possible de changer de paradigme et de concevoir une évaluation beaucoup moins couteuse, moins normative, plus efficace et qui soit un élément moteur du développement des établissements.