Évaluation de l’enseignement par les étudiants#

Informations

  • Document

  • Auteurs : Philippe Dessus, Inspé & LaRAC, Univ. Grenoble Alpes & Élodie Gully, Centre des nouvelles pédagogies, Grenoble INP.

  • Date de création : Juin 2021.

  • Résumé : Ce Document donne quelques éléments de réflexion sur l’évaluation des enseignements universitaires par les étudiants.

Informations supplémentaires
  • Remerciements : Les auteurs remercient Lucie Metz pour ses commentaires d’une version précédente de ce Document.

  • Durée de lecture : 20 minutes.

  • Date de modification : 09 avril 2024.

  • Statut du document : En travaux.

  • Citation : Pour citer ce document : Auteur·s (Date_de_création_ou_de_révision). Titre_du_document. Grenoble : Univ. Grenoble Alpes, Inspé, base de cours en sciences de l’éducation, accédé le date_d_accès, URL_du_document.

  • Licence : Document placé sous licence Creative Commons : BY-NC-SA.

Introduction#

Un enseignant, s’apercevant par un questionnaire de fin de cours, que ses étudiants réclament plus de pratique, s’emploie à en insérer plus dans son cours de l’année suivante… amenant ses étudiants à en réclamer moins… Un autre enseignant, entraînant des étudiants à un oral de concours de recrutement d’enseignant en les faisant travailler sur des simulations d’oraux, s’est vu opposer une assez grande résistance des étudiants, qui préféraient recevoir un cours théorique sur les notions au programme de l’oral.

On le voit à ces deux exemples issus d’expériences réelles, il n’est pas toujours simple pour un enseignant de répondre aux attentes des étudiants… et ces derniers ne sont pas toujours en mesure de juger du bien-fondé des méthodes des cours qu’ils suivent. Toutefois, il est maintenant couramment admis que pour améliorer la qualité d’un service humain, quel qu’il soit, il est nécessaire de considérer quelques indicateurs de ce service, de les mesurer via des instruments, et d’étudier les moyens de l’améliorer [Bryk, 2017]. Même si porter un jugement sur l’activité d’un service est aussi un acte politique, qui peut être perçu par les professionnels qui exercent ce service comme une perte d’autonomie [Garcia & Montagne, 2011].

Il y a deux principales manières d’avoir une idée de la qualité de l’enseignement. Par observateur extérieur, entraîné à repérer certains indices de qualité recueillis dans une grille d’observation, et par questionnaire aux destinataires de l’enseignement en question. Cette dernière possibilité étant fréquemment utilisée dès lors que les apprenants ont un âge suffisant pour réaliser des évaluations pertinentes. C’est le cas dans l’enseignement supérieur et de tels questionnaires sont fréquemment utilisés – ils sont d’ailleurs prescrits réglementairement, voir Section suivante – pour évaluer la qualité de l’enseignement procuré. En retour, ces évaluations peuvent (dans une certaine mesure) servir à l’amélioration des enseignements et, c’est espéré, le niveau d’apprentissage des étudiants.

Dans la suite de ce document il sera question d’évaluation des enseignements par les étudiants (EEE).

Les dispositions réglementaires#

L’article 5 de l’Arrêté du 22 janvier 2014 fixant le cadre national des formations universitaires françaises, définit de plus près cette question de l’EEE (voir Encadré 1 ci-dessous), en prescrivant des conseils de perfectionnement multicatégoriels, évaluant les formations et les enseignements au moyen d’enquêtes régulières auprès des étudiants. La diffusion prescrite des résultats est assez large mais, on le notera, n’inclut pas les étudiants eux-mêmes.

Encadré 1 - Arrêté du 22 janvier 2014, Art. 5, sur les dispositifs d’évaluation des formations et des enseignements. Nous soulignons.

“Dans le cadre de la politique de l’établissement, des dispositifs d’évaluation sont mis en place pour chaque formation ou pour un groupe de formations, notamment à travers la constitution de conseils de perfectionnement réunissant des représentants des enseignants-chercheurs, des enseignants, des personnels bibliothécaires, ingénieurs, administratifs, techniciens, ouvriers, de service et de santé, des étudiants et du monde socioprofessionnel.

Une évaluation des formations et des enseignements est notamment organisée au moyen d’enquêtes régulières auprès des étudiants. Cette évaluation est organisée dans le respect des dispositions des statuts des personnels concernés. Ces dispositifs favorisent le dialogue entre les équipes pédagogiques, les étudiants et les représentants du monde socioprofessionnel. Ils éclairent les objectifs de chaque formation, contribuent à en faire évoluer les contenus ainsi que les méthodes d’enseignement afin de faciliter l’appropriation des savoirs, des connaissances et des compétences et de permettre d’en améliorer la qualité. Ces dispositifs peuvent également servir de base à l’évolution de la carte de formation de l’établissement en cohérence avec la politique de site.

Les résultats des évaluations font l’objet de présentations et de débats au sein des équipes pédagogiques, du conseil de perfectionnement, du conseil de la composante concernée et de la commission de la formation et de la vie universitaire du conseil académique ou du conseil de l’établissement qui a compétence en matière de formation.”

Des buts variés#

Comme l’indiquent Berthiaume et ses collègues [Berthiaume et al., 2011], l’EEE a des buts variés, dont les deux principaux sont :

  • contrôler la qualité de l’enseignement donné par les enseignants ;

  • aider au développement professionnel de ces derniers.

Les auteurs disent que ces deux buts sont deux pôles d’un continuum et qu’ils sont de plus non exclusifs : aider à la formation des enseignants ne peut se faire sans un contrôle (ou a minima une évaluation) de la qualité de leur enseignement. Ils mentionnent également que les enseignants voient moins d’inconvénients à une EEE qui a une visée formative qu’une EEE contrôlante. Tout l’enjeu réside donc dans la formulation des questions et les éléments sur lesquels elles portent.

De plus, si l’on se place dans le cas du premier but, les EEE peuvent jouer un rôle déterminant dans la carrière des enseignants, leur permettant (ou pas) une promotion, l’accès à un poste à durée indéterminée. Il convient donc d’étudier de près leur véritable effet.

Dans la section suivante nous détaillons les modalités possibles d’évaluation des enseignements. Chaque modalité n’est bien sûr pas exclusive l’une de l’autre.

Méthodes de collecte de l’EEE#

Nous avons précédemment indiqué deux principales méthodes d’évaluation d’un enseignement, par observation ou questionnaire (systématique ou non) ; il faut aussi noter que l’information recueillie par ces moyens peut être analysée dans des conseils de perfectionnement.

Les apports anonymes et non systématiques#

On peut proposer à tout usager de rapporter toute situation problématique, sans qu’un questionnaire ne soit diffusé systématiquement (par année, par unité d’enseignement). Les inconvénients de ce type de dispositif sont aisés à déterminer : l’anonymat requis ne permet pas de s’assurer que toutes les évaluations sont données par les étudiants concernés et, quand c’est le cas, il est possible que seuls les étudiants les moins satisfaits s’expriment. Toutefois, son intérêt est de pouvoir, après éventuelle enquête, déterminer et résoudre les problèmes rapportés. Ce dispositif permet par exemple de détecter des problèmes qui commencent juste à émerger, avant qu’ils prennent trop d’ampleur.

Par exemple, l’université d’Ottawa au Canada a un dispositif de ce type, nommé uOSatisfaction, où toute personne (qu’elle soit étudiante, enseignante, ou autre membre du personnel) peut donner librement “des commentaires ou des suggestions pour améliorer l’expérience étudiante”. Les problèmes qui ont été réglés grâce à ce système sont brièvement rapportés sur la page principale. Aucune information précise sur les cours n’est donnée.

Ce type de dispositif est peu coûteux à mettre en œuvre, même si le traitement sérieux de chaque requête peut prendre du temps. Par ailleurs, on s’éloigne un peu de l’évaluation à visée formative d’un enseignement ici, l’expérience recueillie étant plus large.

Les questionnaires systématiques#

Ici, tous les étudiants d’une Unité d’enseignement (UE) se voient adresser un questionnaire posant quelques questions sur leur expérience dans cette UE. Des informations personnelles peuvent également leur être demandées (e.g., à propos de leur équipement, s’ils exercent une activité rémunérée). Les questions classiquement posées aux étudiants concernent :

  • leurs échanges avec leurs pairs ;

  • leurs échanges avec leurs enseignants ;

  • leur niveau de travail ou d’engagement dans l’UE ;

  • le niveau de l’encadrement ;

  • leur opinion sur l’importance de l’UE ;

  • leurs difficultés éventuelles ;

  • leur opinion sur les interrogations écrites

  • le niveau de difficulté du cours ;

  • leur niveau de satisfaction quant à leur interaction avec l’administration ;

  • etc.

Cette procédure est informante car elle donne de nombreuses informations quantitatives qui permettent, si elles sont suivies d’analyse et de décisions pour résoudre les problèmes, d’améliorer effectivement les formations. Une version plus souple de cette version peut avoir lieu lorsque l’enseignant “débriefe” l’UE en présence des étudiants et que cela donne lieu à un compte rendu. En revanche, elle est problématique si les informations collectées sont livrées à tous (voir Section Boucles de rétroaction). Enfin, la formulation des questions est un enjeu important et les réponses peuvent être orientées selon la manière dont elles sont posées, d’où l’intérêt de guider les enseignants à les formuler ou les sélectionner.

L’observation in vivo#

Cette option implique qu’un formateur, un ingénieur pédagogique, un collègue, formé et entraîné à une méthode d’observation, passe du temps à observer des enseignements et les évaluer à l’aide d’une grille. Des observations vidéoscopées sont également possibles.

Cette méthode est plus coûteuse que les précédentes et ne peut certes pas être étendue à l’ensemble des formations d’une composante universitaire. Il est bien sûr nécessaire que la présence de l’observateur soit acceptée à la fois par l’enseignant et les étudiants. En revanche, on peut la considérer à titre de formation ou développement professionnel des enseignants.

Cette modalité garantit en effet une évaluation calibrée et critériée, pour laquelle l’observateur relèvera des éléments correspondant à une grille connue de l’enseignant et qui fera l’objet d’un débriefing par la suite, proposant des rétroactions formatives possiblement dénuées des biais pouvant exister dans les autres modalités d’évaluation. Certains recommandent de l’utiliser en parallèle d’autre méthodes, comme les questionnaires aux étudiants. On trouvera dans le Document Les interactions enseignant-étudiants dans l’enseignement supérieur des informations à ce sujet.

Le conseil de perfectionnement#

Les conseils de perfectionnement sont des dispositifs multicatégoriels, dans lesquels sont réunis, non seulement les enseignants et étudiants concernés, mais aussi d’anciens étudiants, des professionnels, du personnel administratif, etc.) visant à analyser et améliorer le contenu des enseignements et des formations. Cette instance consultative a pour mission de favoriser le dialogue entre l’équipe pédagogique au sens large, le monde professionnel et les étudiants, de manière à contribuer à faire évoluer le contenu des formations et les méthodes d’enseignement pour en améliorer la qualité (cf. Art. 5 arrêté 22 janvier 2014 dans l’Encadré 1).

Les évaluations des enseignements peuvent être présentées lors de ces conseils pour alimenter le débat. Le conseil de perfectionnement prend bien entendu en compte d’autres éléments, comme par exemple la cohérence entre les compétences visées par la formation et celles requises pour les emplois-types visés, le taux de réussite étudiante, l’employabilité des jeunes diplômés, etc. L’évaluation des enseignements est dans ce cadre un indicateur parmi d’autres permettant d’évaluer la formation, au sens plus large, elle revêt à ce titre une importance particulière car elle s’insère dans un processus global d’amélioration continue.

Critères des évaluations#

Que faut-il pour que ces évaluations aient un sens pour les enseignants qui les reçoivent ? Les critères suivants sont importants à considérer ([Berthiaume et al., 2011], pp. 57-58) :

  • la pertinence : il faut que l’enseignant considère que les éléments de son évaluation soient jugés pertinents, et issus d’une procédure qu’il reconnaisse comme valide ;

  • la nouveauté : il faut que les éléments fournis à l’enseignant soient nouveaux, qu’il ne les sache pas déjà ;

  • l’actionabilité : il faut que l’enseignant puisse utiliser les éléments fournis pour améliorer sa pratique ;

  • la motivation : l’enseignant doit être motivé pour modifier sa pratique en fonction de ces éléments.

  • la confidentialité des résultats : l’enseignant à la source d’une EEE doit rester propriétaire des données concernant son enseignement. Ce serait à lui de décider quoi en faire, comme les communiquer ou pas à l’instance de perfectionnement, ses collègues, ou ses supérieurs.

  • la responsabilité : c’est à l’enseignant qu’échoit la décision de mener une EEE, quand, par quels moyens, et pourquoi, même si l’institution peut également inciter un enseignant donné à la mener.

  • l’adaptabilité : c’est l’enseignant qui doit adapter la démarche d’EEE à ses propres buts et besoins de développement professionnel ; par exemple, il devrait pouvoir choisir les items d’un questionnaire d’EEE.

  • la réflexivité : réfléchir sur ses pratiques est toujours coûteux et difficile, et il est important que l’enseignant tire le maximum d’une EEE, par exemple en étant guidé, ou, a minima, que le processus d’EEE lui soit très clairement expliqué.

Un autre paramètre est intéressant à fixer, celui de la temporalité. En effet, on ne demande pas les mêmes informations aux étudiants selon que l’EEE se situe pendant l’enseignement, après enseignement pour nourrir un conseil de perfectionnement, ou même quelques années après.

Les problèmes#

Cette section détaille quelques problèmes (ou points de vigilance) posés par certaines des procédures détaillées dans la section précédente, ils questionnent la validité de l’EEE et ce qu’elle mesure réellement.

L’enseignement, un service comme les autres ?#

Solliciter de la part des étudiants une évaluation des enseignements auxquels ils sont confrontés, cela les met dans une situation bien connue dans notre société : en situation d’usagers évaluant leur satisfaction à propos d’un service qui leur est procuré. Cela est omniprésent : évaluation-éclair via des “bornes de satisfaction”, évaluation d’un produit commandé sur internet ou acheté en magasin, d’une prestation etc. Comme le dit [Fleming, 2019] : “Les scores de satisfaction sont utilisés dans l’évaluation de la performance de la même manière que les employés d’Uber évaluent leurs conducteurs”. L’évaluation est supposée avoir un impact sur la personne qui l’a effectuée, même si aucun retour n’est donné.

Il est à noter que cette démarche est toujours présente pour les métiers les moins prestigieux socialement. Demande-t-on aux patients d’évaluer une opération chirurgicale ? aux clients d’un avocat d’évaluer sa plaidoirie ? Par ces évaluations, l’enseignement devient un service marchand standard et non un “marché des singularités” difficile à évaluer, et de nombreux auteurs ont montré les dérives de cette conception [Laval, 2004]. Cette remarque rejoint les évaluations internationales du prestige de professions (nous n’avons pas de données pour la France) : entre 1977 et 1996, le métier de professeur d’université a perdu 8 points de prestige, pour venir au niveau du métier de médecin [Hargreaves, 2009].

L’image de l’enseignant du supérieur#

Un autre problème, relié au précédent, est l’image véhiculée par certains experts (enseignants, journalistes, politiques) sur les enseignants du supérieur. Ils n’auraient pas bien su s’adapter à l’évolution du public étudiant, et des programmes (surtout s’ils sont de plus chercheurs).

Le rapport Dejean (2002, voir références ci-dessus) n’est pas avare de clichés à ce propos. Il dit clairement que les enseignants “[…] ont déjà le sentiment de ne pas pouvoir faire face à l’ensemble des tâches qui leur sont assignées” (p. 34), qu’ils négligent les tâches d’enseignement au profit de tâches plus nobles comme la recherche. Ils seraient beaucoup trop centrés sur les hautes sphères du savoir et en mal de pouvoir le transmettre à leurs étudiants. Cette image est parfois même diffusée au niveau des étudiants.

Comme l’indique très clairement [Garcia, 2007], avancer ces propositions, c’est montrer que les enseignants du supérieur ne sont capables de bien faire qu’une seule facette de leur métier : la recherche, et échouent dans les autres. Garcia signale que ce sont des propositions violentes et culpabilisantes, et pas nécessairement fondées sur autre chose que des avis d’universitaires placés en haut de la hiérarchie, donc plus favorables à une EEE.

De plus, ces propositions sont mises au regard d’une solution toute trouvée, l’EEE, alors que d’autres solutions candidates seraient sans doute plus pertinentes (comme la formation des enseignants).

Évaluer l’enseignement vs. l’enseignant ?#

Ce point peut paraître banal, mais il nous faut rappeler ici que toute situation d’enseignement est hautement interactive et complexe ([Doyle, 2006]). Ainsi, ce qui est vécu et observé dans une classe dépend de tous les acteurs présents, enseignant comme étudiants : l’enseignant ne peut être donné comme le seul responsable de ce qui se passe, même s’il a un rôle prépondérant.

En France, les sites permettant la notation des enseignants, quel que soit le niveau, se sont vus interdire une évaluation nominative, seule l’évaluation de l’école ou de l’établissement devant être publiée (voir l’expérience de Note2be).

Il est donc toujours préférable de parler d’évaluation d’un enseignement plutôt que de l’enseignant lui-même, et c’est pourquoi les sites qui ont pour but d’évaluer les enseignants sont biaisés : un enseignant donnant le même cours devant des étudiants triés sur le volet d’une université de l’Ivy League (Harvard, par exemple) et devant des étudiants d’une université bien moins cotée recevrait-il la même note ? Nous pouvons en douter.

Évaluer (une partie de) l’enseignement ?#

Un autre point fréquemment évoqué (voir p. ex. [Berthiaume et al., 2011]), est le fait que l’activité d’enseignement dépasse largement le seul espace de la salle de classe et du cours : tout enseignant prépare ses cours, corrige ses copies, interagit avec ses collègues pour organiser les enseignements. Il est donc délicat d’imaginer que le seul avis d’étudiants sur les moments où un enseignant a été en relation avec eux puisse donner une image complète de la qualité de l’enseignement de ce dernier.

Fiabilité de l’avis des étudiants#

Si l’on accorde tant d’importance à l’avis des étudiants à propos de l’enseignement qui leur est donné, c’est parce qu’on suppose que la qualité de l’apprentissage de ces derniers va être directement reliée à leur avis (i.e., plus leur avis sera élevé, plus ils ont appris, et vice versa).

S’il est évident que les enseignants sont partie prenante de la situation et sont difficilement à même de juger impartialement leur performance (et donc qu’on peut directement les exclure des enquêtes sur leur propre enseignement, biais de désirabilité), on pourrait considérer que les étudiants sont, au moins partiellement, dans cette même situation : ils ont assisté à de nombreux cours, avec de nombreux enseignants et peuvent avoir un avis éclairé sur ce qui se passe dans une salle de classe. D’ailleurs, ils sont membres des conseils de formation.

Pour autant, leur avis peut être influencé par de nombreux paramètres : le prestige du cours ou de l’enseignant, les relations qu’ils peuvent tisser avec chacun de ces derniers, leur motivation et intérêt pour le cours ou la matière, et même la méthode pédagogique utilisée. Sans parler du fait qu’ils sont peu à même de juger finement des connaissances en lien avec le contenu (pedagogical content knowledge, content knowledge, voir Document Les connaissances de l’enseignant à propos du numérique).

Que dit la recherche empirique à ce sujet ? Les étudiants apprennent-ils significativement mieux des enseignants les mieux notés ? Uttl [Uttl et al., 2017] a réanalysé les nombreuses méta-analyses sur cette question, montrant que la corrélation entre les performances en apprentissage des étudiants et les évaluations des enseignants par ces derniers était proche de 0, donc non reliées. Ce résultat remet en question les méta-analyses précédentes, qui ne prenaient pas en compte les faibles tailles d’échantillon de certaines des études analysées (voir [Detroz, 2008] pour une revue en français).

D’autres recherches (comme celle de [Deslauriers et al., 2019]), montrent que les étudiants ont l’impression d’avoir mieux appris pendant des cours où ils sont passifs que pendant des cours les impliquant activement (et alors même qu’il est reconnu que l’apprentissage actif a un effet supérieur au passif, voir par exemple les travaux de [Chi & Wylie, 2014]). Ils interprètent leur effort mental pour comprendre le contenu dans la condition “active” comme une trace d’apprentissage plus faible que celui réalisé dans la condition “passive”.

Boucles de rétroaction#

Les résultats des évaluations sont fréquemment utilisés pour nourrir les processus d’évaluation interne ou externe des universités (e.g., bilans internes, HCERES), mais peuvent aussi être diffusés publiquement, par exemple aux étudiants ou aux enseignants, avec un niveau d’agrégation fin et sans anonymat, ce qui permet aisément de déterminer les enseignements évalués positivement ou négativement.

Ainsi, d’une année à l’autre, les résultats des évaluations antérieures peuvent influer ceux des années ultérieures : les étudiants peuvent avoir tendance à choisir les UE bien notées et éviter celles mal notées ; des biais de confirmation peuvent également entacher leur évaluation (tendance à mal noter une UE mal notée, et vice versa).

Réciprocité#

Un autre type de boucle de rétroaction peut survenir, qui peut aller à l’encontre du but initial de l’EEE : l’EEE peut être influencée par les notes des enseignants, qu’elles soient attendues ou réelles [Clayson, 2015] et, à l’inverse, l’enseignant se sachant évalué, peut avoir une pression implicite à donner de bonnes notes, ou encore à baisser ses exigences en termes de contenu, notamment si son statut est précaire [Ackerman et al., 2009]. Dans une étude sur 150 étudiants en école de commerce, [Clayson, 2015] a montré ce lien de réciprocité : il existe une corrélation très significative de .44 entre les notes des enseignants et celles des étudiants, et une régression montre qu’un changement d’une unité dans les notes des enseignants fait changer de 0.58 la note donnée par les étudiants, toutes choses étant égales par ailleurs.

Comme l’exprime très directement [Birnbaum, 2000] : “Beaucoup d’étudiants ne décrivent pas exactement ce que l’enseignant a dit en cours, alors qu’ils sont pourtant motivés à le faire (pendant des examens) ; est-il donc raisonnable de supposer que ces mêmes étudiants sont fiables lorsqu’ils font des descriptions évaluatives anonymement, avec aucun encouragement à être exact et aucune pénalité s’ils ne le sont pas ?”

Le paradoxe de la rigueur#

Le paradoxe de la rigueur a souvent été reporté dans les études sur l’EEE [Clayson, 2009], p. 19 : L’effort, l’engagement des étudiants, l’exigence (tous trois raisonnables, bien sûr) du contenu présenté en cours devrait être relié positivement à l’apprentissage effectif des étudiants. Donc, les cours où les enseignants requièrent une telle rigueur des étudiants devraient être mieux notés par l’EEE que ceux moins “rigoureux”. Les études sur l’EEE qui intègrent une telle mesure montrent une relation négative entre rigueur et EEE.

Le capital de sympathie#

Une étude récente [Clayson, 2021] a montré une corrélation importante (de l’ordre de .56) entre l’EEE et un construit qu’on pourrait appeler le “capital de sympathie” de l’enseignant (likability). Cette étude a questionné les étudiants sur certaines caractéristiques de l’enseignant : son attrait, son accessibilité auprès des étudiants, son aspect physique et vestimentaire, son humour, en bref, son charisme, et a montré que ce charisme était reliés à des scores EEE élevés. Bien sûr, ce charisme n’est pas nécessairement négatif puisqu’il peut induire des relations enseignant-étudiants positives.

À l’extrême, des études, dont celle de Hessler et ses collègues [Hessler et al., 2018], montre que le résultat de l’EEE est sensible au don de sucreries. 118 étudiants de médecine ayant suivi le même cours ont été aléatoirement divisés en 2 groupes pour une session de cours terminale, l’un ayant librement accès à des cookies pendant ce cours, l’autre non. Le groupe cookies a évalué le cours significativement mieux que le groupe sans.

Aider les enseignants à évaluer leur enseignement#

Un levier intéressant est, a minima, d’aider les enseignants à évaluer leur propre enseignement. La banque de questions mise au point par le service de l’université de Bretagne-Sud pourra être utile (voir sitographie). Cette banque peut tout à fait être directement disponible dans une plate-forme d’enseignement, répondant en cela au critère d’adaptabilité. Elle permet à chaque enseignant, une fois que composante a fixé un certain nombre de critères indispensables, d’ajouter des critères d’évaluation plus en lien avec ses propres buts pédagogiques.

Un autre levier est d’organiser des visites formatives où un formateur, muni d’une grille d’observation dont les critères sont connus de l’enseignant, observe un cours sans intervenir. Un débriefing s’ensuit qui peut permettre la discussion sur les choix de l’enseignant, les problèmes rencontrés et les moyens de les pallier. L’usage de la vidéo, bien que plus complexe car nécessitant l’accord de tous les participants, est également possible.

Discussion#

Pour résumer, il est certain qu’aucun dispositif vu plus haut ne peut évaluer la qualité des enseignements dans son ensemble, mais donner certains critères pouvant aider à s’en faire une idée.

Si les liens entre EEE et apprentissage effectif des étudiants sont ténus voire inexistants, cela ne signifie probablement pas qu’on doive abandonner l’EEE : avoir une idée des relations socio-émotionnelles entre enseignants et étudiants peut être utile et des recherches montrent de plus en plus l’importance de ces relations dans l’enseignement supérieur [Schneider & Preckel, 2017] et le Document Atelier - Évaluer le climat socio-émotionnel dans le supérieur. L’EEE est réglementaire et montre aux étudiants et enseignants que l’institution a des préoccupations envers l’amélioration de la qualité de l’enseignement et des formations. Toutefois, les points suivants sont à considérer.

L’enseignant n’est pas l’unique responsable des événéments se déroulant dans les séances de cours qu’il mènent : les étudiants, qu’on amène si souvent à “être acteurs” ont bien sûr un rôle actif à jouer, et donc pas seulement un rôle évaluatif. De ce fait, l’EEE ne devrait pas avoir d’impact négatif sur la carrière des enseignants, notamment les plus précaires d’entre eux.

Ensuite, il faut se demander qui est le propriétaire de l’évaluation de l’enseignement : le ou les enseignant(s) qui l’ont mené ? le responsable de la formation ? les étudiants ? tout un chacun ? Les données reliées à l’enseignement étant plutôt sensibles, pour des raisons énoncées plus haut, il est préférable qu’aucune donnée d’EEE ne soit diffusable sans autorisation expresse de l’enseignant ayant mené le cours, et que ces données ne soient pas diffusées publiquement.

Que ce soit à propos des conseils de perfectionnement ou des évaluations en items, il est conseillé d’encadrer, de proposer, des formats standardisés d’évaluation, afin qu’elle se déroule dans des conditions plutôt comparables entre enseignements. Enfin, toutes choses égales par ailleurs, les effets de l’EEE sont différents selon que les enseignants menant les enseignements évalués sont titulaires ou vacataires. Le Tableau I ci-dessous résume l’ensemble des arguments de ce Document.

Tableau I – Synthèse des arguments sur les différents types d’EEE.

Modalité d’évaluation

Objet évalué

Intérêts

Points de vigilance

Mise en œuvre

Questionnaire anonyme non systématique

L’expérience étudiante, les problèmes à signaler

Facile à mettre en œuvre

Permet de rapporter des problèmes, mais nécessite d’enquêter

Facile à créer mais complexe à traiter par la suite (effet popcorn)

Questionnaire anonyme systématique

L’enseignement dans son ensemble

Collecte de nombreuses informations quantitatives permettant d’améliorer la formation

Confidentialité des résultats, possibles biais dans la formulation des questions

Plus complexe à créer, nécessite un accompagnement dans la formulation et la sélection de questions, etc.

Observation in vivo

L’enseignement à un instant T

Collecte d’informations relevant d’une grille calibrée dont les indicateurs sont connus et considérés comme valides

Suppose que l’enseignant et les étudiants acceptent d’être observés, ne donne des informations que sur un instant T

Complexe à mettre en place, nécessite la formation d’un ou plusieurs personnels/enseignants à l’observation de classe et aux techniques de débriefing

Conseils de perfectionnement

La formation dans son ensemble

Lieu de débat et d’échange,objectif d’amélioration globale.

Dépend d’autres dispositifs d’évaluation (questionnaire, observation, etc.) pour enrichir les échanges

Potentiellement complexe, nécessite de pouvoir rassembler tous les acteurs présents et possiblement passés (alumnis) annuellement

Sitographie#

Humour#

Recherche sur l’EEE#

Systèmes d’évaluation#

Documents officiels et rapports#

Dispositifs d’EEE#

Références#

Ackerman et al., 2009

Ackerman, D., Gross, B. L., & Vigneron, F. (2009). Peer observation reports and student evaluations of teaching: who are the experts? The Alberta Journal of Educational Research, 55(1), 18–39.

Berthiaume et al., 2011(1,2,3)

Berthiaume, D., Lanarès, J., Jacqmot, C., Winer, L., & Rochat, J.-M. (2011). L'évaluation des enseignements par les étudiants (eee). Recherche & Formation, 67, 53–72. doi:10.4000/rechercheformation.1387

Birnbaum, 2000

Birnbaum, M. H. (2000). A Survey of Faculty Opinions Concerning Student Evaluations of Teaching. California State University.

Bryk, 2017

Bryk, A. S. (2017). Accélerer la manière dont nous apprenons à améliorer. Éducation et Didactique, 11(2), 11–30. doi:10.4000/educationdidactique.2796

Chi & Wylie, 2014

Chi, M. T., & Wylie, R. (2014). The icap framework: linking cognitive engagement to active learning outcomes. Educational Psychologist, 49(4), 219-243. doi:10.1080/00461520.2014.965823

Clayson, 2021

Clayson, D. (2021). The student evaluation of teaching and likability: what the evaluations actually measure. Assessment & Evaluation in Higher Education, pp. 1–14. doi:10.1080/02602938.2021.1909702

Clayson, 2009

Clayson, D. E. (2009). Student evaluations of teaching: are they related to what students learn? Journal of Marketing Education, 31(1), 16–30.

Clayson, 2015(1,2)

Clayson, D. E. (2015). A test of the reciprocity effect in the student evaluation of instructors in marketing classes. Marketing Education Review, 14(2), 11-21. doi:10.1080/10528008.2004.11488863

Deslauriers et al., 2019

Deslauriers, L., McCarty, L. S., Miller, K., Callaghan, K., & Kestin, G. (2019). Measuring actual learning versus feeling of learning in response to being actively engaged in the classroom. Proc. Natl. Acad. Sci. USA, 116(39), 19251-19257. URL: https://www.ncbi.nlm.nih.gov/pubmed/31484770, doi:10.1073/pnas.1821936116

Detroz, 2008

Detroz, P. (2008). L'Évaluation des enseignements par les étudiants : état de la recherche et perspectives. Revue française de pédagogie, pp. 117–135. doi:10.4000/rfp.1165

Doyle, 2006

Doyle, W. (2006). Ecological approaches to classroom management. In C. M. Evertson, & C. S. Weinstein (Eds.), Handbook of classroom management. Research, practice, and contemporary issues (pp. 97–125). Mahwah: Erlbaum.

Fleming, 2019

Fleming, P. (2019). Dark academia: despair in the neoliberal business school. Journal of Management Studies, 57(6), 1305–1311. doi:10.1111/joms.12521

Garcia, 2007

Garcia, S. (2007). L'évaluation des enseignements à l'université : enjeux socio-politiques et pédagogiques d'une activité de conseil dans la formation supérieure. Les dossiers des sciences de l'éducation, 18(1), 111-120. doi:10.3406/dsedu.2007.1119

Garcia & Montagne, 2011

Garcia, S., & Montagne, S. (2011). Pour une sociologie critique des dispositifs d'évaluation. Actes de la Recherche en Sciences Sociales, 4, 4–15.

Hargreaves, 2009

Hargreaves, L. (2009). The status and prestige of teachers and teaching. In L. J. Saha, & A. G. Dworkin (Eds.), International handbook of research on teachers and teaching (pp. 217–229). Springer.

Hessler et al., 2018

Hessler, M., Popping, D. M., Hollstein, H., Ohlenburg, H., Arnemann, P. H., Massoth, C., … Wenk, M. (2018). Availability of cookies during an academic course session affects evaluation of teaching. Med Educ, 52(10), 1064-1072. URL: https://www.ncbi.nlm.nih.gov/pubmed/29956364, doi:10.1111/medu.13627

Laval, 2004

Laval, C. (2004). L'école n'est pas une entreprise. Paris: La Découverte.

Schneider & Preckel, 2017

Schneider, M., & Preckel, F. (2017). Variables associated with achievement in higher education: a systematic review of meta-analyses. Psychological Bulletin, 143(6), 565–600. doi:10.1037/bul0000098

Uttl et al., 2017

Uttl, B., White, C. A., & Gonzalez, D. W. (2017). Meta-analysis of faculty's teaching effectiveness: student evaluation of teaching ratings and student learning are not related. Studies in Educational Evaluation, 54, 22-42. doi:10.1016/j.stueduc.2016.08.007