Des enseignants chercheurs sont prêts à bloquer les universités françaises parce qu’ils refusent une évolution de leur système d’évaluation, celle-ci devenant plus fréquente, avec un rôle accru pour les présidents d’université. L’évaluation individuelle n’a pas bonne presse dans le secteur public mais il existe actuellement un processus national pour les enseignants chercheurs
Je ne parlerais pas ici de sujets importants dans ce dossier que sont le rôle des présidents dans des universités plus autonomes et la question de la répartition du temps entre enseignement et recherche. Je voudrais en réalité profiter de l’occasion d’aborder la question de l’évaluation des compétences.
On observe depuis quelques lustres un développement des pratiques d’évaluation que je qualifierai de collectives, y compris dans le public. Le principe général est d’une part de savoir où l’on en est, d’autre part de contribuer à identifier les meilleures pratiques ou au contraire les dysfonctionnements. C’est ainsi par exemple que l’évaluation du niveau scolaire d’une classe d’age permet aujourd’hui un certain nombre de comparaisons entre les systèmes d’éducation de nombreux pays. On voit bien comment un tel système peut être vertueux pour faire progresser les méthodes de travail. On pratique également l’évaluation dans de nombreux domaines, comme celui du médicament par exemple.
On notera ici une différence entre l’évaluation qui a pour but de mesurer l’efficacité pour améliorer le système et le contrôle, tel que le pratique la cour des comptes par exemple, qui a d’abord (ou aussi ?) comme objectif de prévenir les détournements et les dysfonctionnements. La différence reste cependant ambiguë puisque le système d’évaluation des entreprises se nomme contrôle de gestion !
On trouve ici une des raisons de la méfiance fréquente dans le secteur public vis-à-vis de l’évaluation individuelle, plus vécue comme une menace de sanction que comme une aide à la progression, et surtout largement taxée d’arbitraire, dès qu’elle fait intervenir l’appréciation d’un supérieur hiérarchique
Mais, même quand il s’agit des individus, l’idée d’évaluation couvre au moins deux idées distinctes : l’évaluation des compétences et l’évaluation de la performance
Disons tout de suite ma réticence vis-à-vis de l’évaluation de la performance individuelle, pourtant très à la mode dans les entreprises pour attribuer primes, variables et autres bonus. La raison essentielle est que dans la plupart des cas, la performance est essentiellement collective et que l’utilisation de variable individuel n’est pas favorable à la coopération (quand ce n’est pas bien pire). Je suis donc beaucoup plus favorable à la notion de variable collectif, sachant que pour que celui-ci soit motivant, il faut que les participants aient le sentiment de pouvoir agir sur le résultat, ce qui suppose notamment des collectifs pas trop nombreux et des périmètres bien définis, ce qui n’est pas toujours facile.
La question essentielle, et il me semble que c’est celle des enseignants chercheurs, est donc celle de l’évaluation de la compétence individuelle.
Il y a quinze à vingt ans, j’ai eu l’occasion de participer à des groupes de travail entre consultants de divers cabinets de conseil sur le thème des compétences. Il y avait autant de conceptions et d’approches de la compétence qu’il y avait de participants ; c’était à la fois riche et disparate.
Je me suis éloigné du sujet pendant un temps, et quand j’y suis revenu il y a cinq ans environ, j’ai pu constater que les choses avaient évolué suffisamment pour qu’une école domine et se soit à peu près imposée. Son représentant le plus connu est Guy le Boterf, qui a formalisé ses idées dans de nombreux ouvrages. Aujourd’hui en effet, si d’autres approches alimentent d’autres domaines, celui de l’évaluation des compétences repose de plus en plus sur la notion de savoir faire observables.
On la retrouve par exemple à travers la notion d’assesment, terme anglais qui recouvre des pratiques déjà anciennes pour soutenir le recrutement des cadres supérieurs (et en particulier le recrutement interne). En pratique, il s’agit de mettre une personne en situation et d’observer ce qu’elle fait.
La méthode dite des aptitudes développée par l’ANPE repose sur le même principe. Et on peut en dire autant de ce qui sous tend généralement les entretiens annuels d’évaluation, là où ils sont pratiqués.
Qui dit savoir faire observables dit compétence mise en œuvre : ce n’est donc pas l’ensemble des compétences qui sont analysées. Dans mon ancien métier, j’ai appris à déterminer un plan de tir, c'est-à-dire la manière dont on dispose l’explosif pour creuser des galeries. Bien sûr, je n’utilise plus cette compétence, qui n’est donc plus observable.
Le plus important est que ce type de savoir faire ne peut être observé qu’en proximité donc soit par l‘environnement proche au quotidien, soit à l’occasion de « mise en situation », comme dans le cas d’un assesment (ou d’un casting !). Le hiérarchique direct est évidemment l’évaluateur le plus courant, et on lui demande de faire reposer son évaluation sur du factuel, des faits observés entre deux évaluations. Cela demande évidemment une formation, mais celle-ci peut être assez courte. L’idéal est de disposer d’un référentiel de compétences pour faciliter l’évaluation.
Plus complet que l’évaluation par le hiérarchique, a été développé ce qu’on appelle le 360°, méthode consistant à faire évaluer une personne par son entourage : son hiérarchique, ses collègues, ses subordonnées. Le fait de faire noter les enseignants par les élèves, méthode habituelle en formation des adultes mais aussi dans le monde anglo-saxon ou dans certaines écoles supérieures procède de cette pratique. En formation des adultes, c’est d’abord un outil pour progresser. Les démarches qualité utilisent d’ailleurs des méthodes du même ordre, destinées à identifier les points faibles et les résultats obtenus par les moyens mis en place pour y remédier.
Cela signifie que le reproche d’arbitraire adressé aux évaluations hiérarchiques peut ne reposer que sur des a priori.
Les commentaires récents