Article 1: Plantons le décor

Je voudrais dans ce premier article du blog EsrAq poser quelques points de repères du contexte global dans lequel la pratique de l’évaluation est mise en œuvre dans notre système d’enseignement supérieur et de recherche (ESR).  L’évaluation des établissements, de leurs équipes de recherche et de leurs formations est souvent considérée comme un exercice assez implicite. En effet, l’expérience de l’évaluation des connaissances et compétences de nos étudiants ou encore des travaux de recherche dans le cadre de revues, de projets ou de manifestions de recherche apparait assez naturellement transposable à l’évaluation des établissements et de leurs structures internes. Cette perception s’accompagne bien souvent d’une vision bien arrêtée de ce que devrait être une université idéale et performante et d’une forte appétence pour la « désignation des champions » même si dans le même temps la contestation des classements est forte surtout lorsque ceux-ci ne sont pas favorables.

Conséquence directe, l’évaluation sommative et normative mesurant les performances relativement à un modèle uniforme intégrant quelques indicateurs standardisés, conçue comme un outil d’aide à la décision pour la répartition des moyens, constitue l’approche privilégiée par de nombreux acteurs. A l’inverse, l’évaluation formative centrée sur l’identification des difficultés de l’évalué, prenant en compte ses spécificités et privilégiant la dynamique de progrès apparaît souvent comme un exercice plus complexe et diffus, moins tranchant et moins utile pour l’aide à la décision. Pas étonnant dans ce contexte que l’évaluation soit perçue principalement comme une contrainte et une menace plutôt qu’une opportunité et une plus-value pour les structures évaluées.

Autre caractéristique de notre ESR, les références et lignes directrices pour l’assurance qualité dans l’espace européen de l’enseignement supérieur (les fameux standards européens ESG) sont largement méconnues alors qu’elles constituent le socle de notre système d’évaluation qui revendique une reconnaissance européenne pour nos deux agences en charge de l’évaluation (Hcéres et CTI). J’aurais l’occasion de l’évoquer dans un prochain article mais à l’image de nombreux dispositifs européens, cette méconnaissance des ESG conduit à en faire une contrainte pour l’obtention du label européen plutôt qu’un véritable socle méthodologique de la construction de notre système d’évaluation.

On constate très souvent que nous avons des difficultés à placer l’étudiant et plus largement les acteurs de notre ESR (parties prenantes) au centre de ce système, que des fondements méthodologiques comme l’autoévaluation (évaluation interne) sont mal compris et que l’assurance qualité (nous devrions plutôt utiliser le terme de garantie de la qualité) est souvent l’objet de clichés d’un autre temps quand elle n’est pas considérée comme un véritable tabou et réduite à un simple dispositif technique de la sphère administrative. Je reviendrai largement sur ce sujet qui me tient à cœur.

Sans prétendre à l’exhaustivité des nombreuses problématiques intervenant dans le champ de l’évaluation, les difficultés de l’articulation entre inspection et évaluation constituent de mon point de vue une spécificité de notre ESR. Nous avons une culture historique de l’inspection qui irrigue l’ensemble des services de l’Etat et qui se traduit principalement dans notre ESR par l’action de l’inspection générale de l’éducation, du sport et de la recherche (Igésr).

Le socle historique de l’inspection repose sur une mission centrale de vérification de la bonne application des mesures réglementaires du code de l’éducation et du code de la recherche par des inspecteurs ayant une expérience antérieure dans les différentes sphères de notre ESR mais sans autre activité pendant leur affectation à l’Igésr. L’évaluation se différencie fondamentalement sur ce dernier point car elle fait appel à des pairs, personnels en activité en France ou à l’étranger ou en retraite et usagers de l’ESR (étudiants et personnes de la société civile). Elle se distingue également au niveau méthodologique par le fait que toute évaluation s’appuie sur un processus préalable d’autoévaluation réalisé par l’évalué. Ces deux grands principes résultent directement de l’application des ESG. Ces quelques éléments ne suffisent pas à définir toutes les différences entre inspection et évaluation mais permettent de mettre en évidence des points majeurs de leur articulation. Force est de constater qu’il y a une certaine confusion dans l’exploitation par l’Etat de ces deux outils. L’Igésr se positionne aujourd’hui largement dans le champ de l’évaluation et elle reçoit d’ailleurs des missions et commandes de l’Etat dans ce sens.

D’un autre côté, quand on examine de près les missions attribuées au Hcéres et les sollicitations ponctuelles dont il fait l’objet, on peut parfois se demander si certaines ne relèvent pas justement plutôt du champ de l’inspection. Pour ne citer qu’un exemple, la mission « évaluer la mise en œuvre des mesures visant à favoriser l’égalité entre les femmes et les hommes dans les établissements contribuant au service public » telle qu’elle est libellée relève plus d’un processus de contrôle de la bonne application de mesures réglementaires que d’une attente globale de l’Etat à intégrer dans les référentiels d’évaluation. Personnellement j’ai le sentiment que l’Etat n’a jamais vraiment pris la mesure de la nature de l’acte d’évaluation introduit par les ESG et du contexte dans lequel devrait s’inscrire l’évaluation. Comme souvent dans le système français, on a ajouté une couche supplémentaire aux dispositifs de l’Etat sans en tirer les conséquences sur les dispositifs et structures existants. Formulé autrement, le mandat de l’évaluation (périmètre, objectifs, explicitation des résultats), notion importante sur laquelle j’aurais l’occasion de revenir, n’a pas été suffisamment clairement explicité et partagé avec les différents acteurs de l’ESR.

Je termine cette rapide analyse du contexte de notre système d’évaluation par un point qui peut paraître déconnecté du sujet. L’observation du fonctionnement des établissements et du système dans son ensemble montre qu’il y a une distance et parfois même une incompréhension qui s’installent progressivement entre les équipes de direction des établissements et les acteurs de terrain. Ce constat n’est pas complètement étonnant dans un contexte où les enseignants chercheurs sont souvent poussés à des comportements de plus en plus individualistes pour gérer au mieux leur carrière et où l’autonomie croissante des établissements impose aux équipes de direction une gouvernance plus stratégique et plus exigeante pour faire face à une concurrence croissante.  

Notre système se retrouve ainsi à une période charnière alors qu’une des clés majeures de la réussite de nos structures est, à l’évidence, la dynamique collective qu’elles sont en capacité d’installer pour atteindre les objectifs qu’elles se sont fixés. C’est en fait le sujet tabou du management qui est posé. Les travers de certaines transpositions directes des pratiques du monde de l’entreprise conduisent à un rejet en bloc du mot management alors que c’est bien une problématique majeure en lien avec l’autonomie à condition bien évidemment de prendre en compte la nature très spécifique de nos structures et leur organisation. Alors que vient faire l’évaluation dans tout celà ? Et bien pour peu qu’on ne la prenne pas comme une contrainte ponctuelle ou une menace,  et qu’on l’intègre dans une approche plus globale de l’assurance qualité, on peut justement y trouver des outils du management et plus globalement de la gouvernance pour contribuer à la réussite et à la performance de nos structures.

 

Ce blog EsrAq porte deux slogans « l’évaluation : un regard externe moteur et condition de l’autonomie » et « l’assurance qualité levier de la dynamique de progrès » qui résument bien les convictions qui m’ont conduit à une telle démarche. Je suis convaincu que l’évaluation n’est pas une fin en soi mais un exercice subtil et complexe qui doit s’intégrer dans une approche plus large de l’assurance qualité conçue comme un véritable outil de gouvernance. L’évaluation ne s’improvise pas et n’a pas de solution unique et universelle. Elle s’apprend patiemment en analysant les expériences des autres systèmes, en expérimentant et surtout en ayant le souci de fondements méthodologiques solides et constants. Ma liberté de parole retrouvée après une longue expérience au sein de l’Aéres puis du Hcéres, je vais essayer par différents types d’articles d’apporter modestement une contribution à ce sujet multifacette. Je ne prétends pas détenir la vérité mais je voudrais simplement essayer de vous faire partager mes convictions et interrogations dans ce domaine.

Je n’ignore pas que le sujet de l’assurance qualité a souvent mauvaise presse chez nos collègues, certains y voyant une contrainte administrative supplémentaire, d’autres un outil de management intrusif et directif, d’autres enfin un discours lénifiant. Je suis pour ma part convaincu qu’il y a là une clé de la modernisation de nos établissements à condition de porter une vision plus politique de l’assurance qualité et même une approche plus ambitieuse de ce qu’il conviendrait d’appeler la garantie de la qualité.

 

2 commentaires à propos de “Article 1: Plantons le décor”

  1. Merci pour ce premier article. Je suis curieux de lire la suite.
    En Suisse nous constatons qu’il n’est pas facile d’appliquer tous les aspects des ESG.
    Nous avons dans notre législation un standard qualité qui demande au management universitaire de communiquer avec la communauté universitaire au sujet du système d’assurance de la qualité . Dans quelques années nous saurons éventuellement si cette règle est appliquée et si elle a un effet positif.

    • Je pense qu’en Suisse, nous ne connaissons pas cette culture d’ »inspection » dans le domaine de la recherche qui règne en France. La mise en place d’une démarche qualité n’est pour autant pas plus facile. Merci pour ce blog. Ewa Mariéthoz

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*