Article 30 : La nouvelle évaluation institutionnelle du Hcéres : Un rendez-vous manqué….

Le Hcéres vient de publier une nouvelle méthodologie d’évaluation dans le cadre de la vague d’évaluation 2026-2027, pour ses trois principaux domaines d’intervention : établissements, équipes de recherche et formations. Après une longue période de réflexion qui a suivi le changement de présidence, le Hcéres annonce une nouvelle démarche avec notamment un nouveau vocabulaire. Pour les trois domaines, il publie un « guide d’évaluation » qui se veut un document synthétique intégrant l’ensemble de la méthodologie proposée. Le référentiel d’évaluation externe, qui constituait jusqu’à présent le document central de la méthodologie d’évaluation de ces trois domaines, disparait donc au profit d’une nouvelle approche qui revendique une simplification et une plus forte volonté d’accompagnement des entités évaluées.

Pour ce qui concerne l’évaluation institutionnelle, objet de cet article, l’analyse de ce « guide de l’évaluation » révèle en fait une simplification toute relative, plusieurs biais méthodologiques et une absence d’innovation. Derrière un changement de vocabulaire qui donne l’illusion d’un changement de méthode, l’approche proposée est globalement source d’une grande confusion et porteuse d’une dégradation potentielle de la qualité des futures évaluations, bien loin d’un virage méthodologique à même de constituer un levier de progrès de l’enseignement supérieur et de la recherche (ESR).

 

Un centrage sur l’accompagnement de l’autoévaluation, source de biais méthodologiques 

Après avoir défini le périmètre de l’évaluation, la présentation du processus méthodologique comporte plusieurs formulations maladroites : « un dialogue stratégique, pendant l’élaboration de l’autoévaluation sous la forme d’une rencontre opérationnelle qui a pour but d’accompagner l’établissement dans cet exercice » ; « une visite sur site pour approfondir les éléments de l’autoévaluation ». La nouvelle méthode met ainsi en évidence une volonté d’accompagner l’établissement dans sa phase d’autoévaluation.

Il y a ensuite un long développement sur les attendus de l’autoévaluation, ce qui est logique au niveau des principes, mais le guide va plus loin en précisant l’organisation attendue du rapport d’autoévaluation, et surtout en proposant une liste de 80 questions qui balaient 7 chapitres prédéfinis ( 7 dimensions). Il y a également cinq questions transversales, centrées sur l’analyse critique que doit réaliser l’établissement, pour chacun des chapitres.

Cette volonté d’accompagner l’autoévaluation pose une question méthodologique majeure car le rôle premier du Hcéres est de définir la méthode d’une évaluation externe indépendante. Le contenu de cette méthode éclaire indirectement l’établissement dans la conduite de son autoévaluation, mais l’agence d’évaluation ne peut, en aucun cas, se retrouver juge et partie en se positionnant dans un rôle d’accompagnateur de l’autoévaluation.  C’est contraire aux principes des standards européens (ESG).

 

Une simplification discutable et la persistance d’une approche normative au détriment de l’autonomie des établissements

La forme très synthétique du guide et l’absence de référentiel explicite peuvent donner l’impression de simplification. Il n’en est rien car la série de 80 questions en fin de guide, en l’absence de référentiel, va constituer inévitablement un point de focalisation des établissements pour leur autoévaluation. Ces 80 questions balayent en fait l’ensemble des critères du référentiel précédent et apportent même en différents points, des éléments supplémentaires d’analyse. Même si ces questions sont présentées à titre d’exemple, elles orientent inévitablement l’analyse et formatent indirectement des points de focalisation du pilotage des établissements.

Par ailleurs, le Hcéres souhaite un rapport d’autoévaluation limité à 50 pages. Il invite l’établissement à y intégrer « une analyse d’une de ses réussites les plus significatives » ce qui risque d’accentuer encore la dimension trop fréquente d’autopromotion des rapports d’autoévaluation. Pas besoin de demander à l’évalué de relater ses succès, c’est en général assez spontané ! Il serait, par contre, plus pertinent de demander aux établissements un regard critique argumenté sur leurs échecs, car c’est là que se situent les leviers de progrès. Il y a également un enjeu à analyser la continuité des efforts et engagements des établissements dans un système ESR sous la pression permanente des appels à projets, générateurs d’innovations éphémères…

Cette pseudo simplification et ces différentes attentes du Hcéres vont conduire à des rapports d’autoévaluation très denses, avec le risque de se limiter à un balayage superficiel des thématiques, sans livrer d’analyse critique étayée à même de permettre aux experts d’apprécier la capacité de l’établissement à porter et à piloter une stratégie de développement.

L’encadrement très marqué de l’exercice d’autoévaluation par la déclinaison d’une liste large de points d’analyse, conduit, une fois de plus, à une approche très normative de l’évaluation. Cette nouvelle méthodologie persiste ainsi dans la vision d’un ESR centralisé sans volonté de développer une véritable autonomie des établissements.

 

Une absence de référentiel explicite de l’évaluation externe, source de grande confusion 

Le référentiel de l’évaluation externe n’est plus défini explicitement. Le Hcéres indique que « l’évaluation se conforme aux standards européens (ESG) », mais il n’en fait pas pour autant l’outil de base des experts comme c’est le cas de certaines agences étrangères. Les étapes du processus d’évaluation, le rôle du comité d’experts et l’organisation des entretiens de la visite sont présentés, mais aucune partie du guide ne vient préciser les références et critères que doivent explorer les experts.

On peut comprendre entre les lignes que les « dimensions et les questions » proposées pour l’élaboration de l’autoévaluation vont constituer le plan de travail des experts, mais rien n’est véritablement explicité dans ce domaine, comme si le référentiel d’évaluation externe n’existait plus…

Cette approche peut paraitre astucieuse pour faciliter l’acceptation de l’évaluation et éviter les tensions, mais c’est en fait très dangereux. On supprime le thermomètre pour être sûr de ne plus constater de température…. Les établissements ne vont en fait pas avoir une connaissance précise a priori des critères de l’évaluation externe, ce qui est contraire aux principes de l’assurance qualité et non conforme aux ESG. 

 

Un manque de cadrage de la mission d’évaluation externe, source d’une dégradation potentielle de sa qualité

L’absence de références et critères explicites d’évaluation génère un flou majeur pour l’action des experts. Soit le comité utilise finalement les 80 questions proposées pour l’autoévaluation comme critères d’évaluation, et c’est alors la reconduction d’une évaluation externe normative sans innovation. Soit le comité se livre à une évaluation avec ses propres critères et l’évaluation sera alors dépendante de l’approche du comité (de ses compétences, de ses intérêts…), avec de fortes disparités d’analyse et même des risques importants de carences ou de dérives, sources d’hétérogénéité et de dégradation de la qualité des évaluations….

A noter également l’introduction dans le processus d’évaluation d’un pré-rapport établi par le comité en amont de la visite.  Les attendus méthodologiques de ce pré-rapport ne sont pas précisés. La répartition entre les experts des contributions à ce pré-rapport n’est pas définie. Elle est très difficile à réaliser en amont de la visite, sauf à multiplier les réunions préparatoires, source de complexité supplémentaire. La relation avec le rapport final n’est pas précisée non plus. La notion de pré-rapport sur la base de l’analyse du rapport d’autoévaluation est intéressante, et elle peut même conduire à une évolution forte du contenu de la visite et de la méthode de production du rapport final. Toutefois, en l’état, l’absence de définition précise du rôle de ce pré-rapport et de son mode d’élaboration amplifie encore, s’il en était besoin, le flou de la méthodologie proposée et le risque de grande confusion et hétérogénéité dans l’action du comité d’experts…

 

Conclusion

En résumé, la nouvelle approche proposée par le Hcéres porte des risques de dégradation de la qualité des évaluations institutionnelles. Le document « guide de l’évaluation » introduit des biais méthodologiques potentiels. Il est source de grande confusion pour les experts car il n’explicite pas suffisamment le processus d’évaluation externe. La simplification annoncée est toute relative et il n’y a pas de réelle innovation. L’approche évaluative reste globalement normative, bien loin d’une transformation en profondeur de la philosophie de l’évaluation externe nécessaire aux progrès des établissements.

Pour qu’une évaluation externe soit pertinente, elle doit être très explicite dans ses intentions et dans les leviers de son action avec une méthodologie précise. La bienveillance nécessaire à la confiance des évalués ne doit pas conduire à l’absence d’exigence, au risque d’aboutir à des évaluations sans impact sur les progrès de notre ESR.

Dans un contexte de crise budgétaire de l’Etat et de concurrence internationale, les établissements ne peuvent se limiter à demander des moyens supplémentaires. La question de la qualité de leur pilotage et de l’efficience de leur action est centrale, quels que soient leur notoriété et leur rang acquis. La clé du développement de l’autonomie des établissements repose sur leur capacité à démontrer l’efficacité de leur action, et c’est cette dimension qui devrait être au cœur d’une évaluation externe adaptée aux enjeux de développement de notre ESR.

Les mots clés « responsabilité » et « démonstration » relativement à l’autoévaluation réalisée par l’établissement, sont totalement absents du guide de l’évaluation. Ce constat est révélateur des carences de la méthodologie proposée face aux enjeux du développement de l’autonomie des établissements.

Les cinq questions fondamentales (cf article 28) concernant la réponse aux recommandations de l’évaluation précédente, la définition des objectifs stratégiques des établissements, l’explicitation des dispositifs opérationnels associés, la preuve des résultats obtenus et l’analyse critique associée, devraient être les moteurs d’une évaluation externe focalisée sur les dynamiques de progrès.  La nouvelle méthode proposée par le Hcéres aborde partiellement ces cinq questions fondamentales mais elle en fait un élément parmi d’autres d’un processus d’évaluation par ailleurs englué dans une approche normative, alors que ces cinq questions pourraient constituer l’élément central d’un référentiel d’évaluation ouvert aux spécificités des établissements mais très exigeant sur la qualité de leur autoévaluation (cf article 28).

Il est important de ne pas confondre le nécessaire consensus global sur les méthodes d’évaluation qui doivent garantir une bonne compréhension des objectifs et règles de l’évaluation, et l’acceptation des résultats de l’évaluation. Une évaluation utile conduit à des rapports d’évaluation qui posent inévitablement des questions difficiles, sources de réactions voire de contestations.

On peut comprendre la volonté du Hcéres de retrouver un climat apaisé sur l’évaluation externe mais une évaluation qui ne « fait pas de vagues » et qui ne porte pas d’exigences fortes pour les établissements court le risque d’être inutile. En l’état actuel, la nouvelle méthode du Hcéres apparait comme un mélange maladroit de différentes approches qui ne porte pas de rupture réelle et qui est source de confusion.

A la décharge du Hcéres, on peut regretter l’absence de mobilisation des acteurs de l’ESR sur le sujet de l’évaluation, ce qui donne l’impression d’un abandon pure et simple.

Depuis des années, l’Etat s’est avéré incapable de comprendre les enjeux politiques du développement de l’assurance qualité comme levier de progrès du pilotage des établissements. Il reste par ailleurs accroché à une vision centralisatrice et une approche administrée des établissements, aux antipodes d’une réelle volonté de développement de leur autonomie.

France Universités, pénalisée par l’hétérogénéité de ses membres, est aussi absente dans ce domaine, incapable d’aborder des sujets centraux et réduite au seul sujet des moyens et de quelques autres sujets importants, mais moins vitaux.

Malgré les discours sur l’évaluation, les établissements eux-mêmes ne sont pas sans responsabilité, les équipes de direction percevant trop souvent l’évaluation comme une critique directe de leur action, plutôt que comme un regard sur l’institution globale, et réduisant trop souvent l’évaluation à un outil de communication, plutôt que l’utilisant comme un levier de progrès.

Dans ce contexte défavorable, la nouvelle méthodologie d’évaluation du Hcéres est décevante. Elle n’apporte pas d’innovation significative ni de rupture, permettant au Hcéres de s’engager pour une exigence forte de l’évaluation. Dès lors, le Hcéres sera probablement conduit au constat du manque d’impact et d’intérêt de ses productions, au risque de conforter ses détracteurs qui souhaitent sa suppression….

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*