Enseignement à distance ou hybride : des recommandations#

Information

  • Auteur : Philippe Dessus, Inspé & LaRAC, Univ. Grenoble Alpes et Salomé Cojean, LaRAC, Univ. Grenoble Alpes.

  • Date de création : Juin 2022.

  • Résumé : Ce Document présente des recommandations issues de recherches fondées sur les preuves (principalement des méta-analyses), pour enseigner à distance ou de manière hybride, en recensant plus de 70 effets de méthodes, dispositifs, ou types de design. Les recommandations sont classées par thème et par effet décroissant quand cela est pertinent.

  • Voir aussi : rech-educ:meta-analyse, et {ref}gene:appr-visible`.

Informations supplémentaires
  • Date de modification : 09 avril 2024.

  • Durée de lecture : 17 minutes.

  • Statut du document : En travaux.

  • Citation : Pour citer ce document : Auteur·s (Date_de_création_ou_de_révision). Titre_du_document. Grenoble : Univ. Grenoble Alpes, Inspé, base de cours en sciences de l’éducation, accédé le date_d_accès, URL_du_document.

  • Licence : Document placé sous licence Creative Commons : BY-NC-SA.

Introduction#

Ce document fait un point général sur les méta-analyses (voir Document L’apprentissage visible : qu’est-ce qui marche en éducation ?) et revues systématiques qui ont brossé une vue globale, en synthétisant de très nombreuses recherches empiriques, des facteurs pouvant contribuer à un enseignement à distance ou hybride efficace.

La méthode méta-analytique (revue synthétique d’un grand ensemble d’études) est intéressante parce qu’elle permet d’avoir une vue globale d’un phénomène (dans notre cas, l’enseignement en ligne ou hybride). Elle a aussi, comme toute méthode, des inconvénients : comme elle agrège de très nombreux travaux, le soin apporté à leur recueil et analyse importe, et il arrive que des chercheurs, en réanalysant les mots-clés des requêtes ayant mené à la méta-analyse, se rendent compte qu’on compare des choux avec des poires (voir par exemple [Sims & Fletcher-Wood, 2020] à propos de recherches sur la formation des enseignants). L’autre inconvénient est qu’elle fait se focaliser sur une valeur. Il faut rappeler que les bornes des effets, respectivement, grand, moyen et faible sont les suivantes : 0,80, 0,50 et 0,20.

Le lecteur pourra par exemple se reporter au site “Visible Learning Meta {sup}x” pour un répertoire complet d’effets.

D’abord ne pas nuire#

Toutefois, on ne peut considérer la modalité d’enseignement hybride ou à distance comme une modalité qui, quand elle est adoptée, est strictement similaire à une situation d’enseignement en présence, en dehors bien sûr des aspects de distance. Certains points sont à considérer avant tout (repris en partie de [Kwet & Prinsloo, 2020]) :

  • Les biais de sélection : il faut être attentif aux possibles biais de sélection : les étudiants ont-ils pu choisir cette modalité ? ou bien ce sont les enseignants qui l’imposent ? selon quels critères ? Idéalement, il faudrait procéder à des “essais contrôlé randomisés” qui sont encore rares dans les recherches en technologies éducatives [Fenouillet & Dero, 2006].

  • L’accès aux outils : l’enseignement en ligne ou hybride faisant un usage intensif d’outils informatisés, il faut aussi être attentif à ce que tous les étudiants aient des conditions matérielles de leur plein accès (i.e., ordinateur, connexion suffisante, espace calme), sinon cela amène un autre biais de sélection.

  • La surveillance : l’accès aux cours se faisant prioritairement en ligne, il y a un risque non nul que des informations portant atteinte aux libertés des étudiants puissent être récoltées et analysées. Ainsi, les périodes et durées d’accès au site sont aisément récoltables. Pour autant, leur analyse pour prendre certaines décisions évaluatives doit se réfléchir et, si elle est jugée nécessaire, les étudiants doivent en être clairement informés.

  • Le solutionnisme : popularisé par [Morozov, 2014], cette notion est reliée à la croyance qu’il existe une solution technologique à tout problème. Comme l’a montré [Fawns, 2022], technologie et pédagogie sont intimement liés et il est difficile de dire que l’une doit diriger le développement de l’autre : la technologie en elle-même ne peut résoudre.

Vue synthétique#

Le tableau I ci-dessous reprend toutes les tailles d’effet relevées dans les méta-analyses recensées dans ce document.

Tableau I – Vue synthétique des résultats des méta-analyses sur l’enseignement dans le supérieur. Un clic sur l’en-tête d’une colonne déclenche le tri du tableau selon cette colonne.

Source Portée de l'étude Domaine Effet Cible de l'effet Taille d'effet
Chaudhary et Sing (2022) Supérieur Geste pédagogique Gestion du temps Apprentissage en général 0,64
Chaudhary et Sing (2022) Supérieur Geste pédagogique Modelage Apprentissage en général 0,52
Chaudhary et Sing (2022) Supérieur Geste pédagogique Questionnement Apprentissage en général 0,51
Chaudhary et Sing (2022) Supérieur Geste pédagogique Structuration Apprentissage en général 0,5
Chaudhary et Sing (2022) Supérieur Geste pédagogique Orientation Apprentissage en général 0,46
Chaudhary et Sing (2022) Supérieur Geste pédagogique Climat du cours Apprentissage en général 0,44
Chaudhary et Sing (2022) Supérieur Geste pédagogique Application Apprentissage en général 0,35
Chaudhary et Sing (2022) Supérieur Geste pédagogique Évaluation Apprentissage en général 0,34
Doo et al. (2020) Supérieur Interactions Étayage par pairs Apprentissage en général 1,81
Huisman et al. (2018) Supérieur Interactions Rétroactions par les pairs (notes et classements et commentaires) Apprentissage en général 1,39
Doo et al. (2020) Supérieur Interactions Étayage Méta-cognitif 1,1
Huisman et al. (2018) Supérieur Interactions Rétroactions par plusieurs pairs Apprentissage en général 1
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions informatives Apprentissage en général 0,99
Doo et al. (2020) Supérieur Interactions Étayage Conceptuel 0,96
Doo et al. (2020) Supérieur Interactions Étayage Apprentissage en général 0,87
Doo et al. (2020) Supérieur Interactions Étayage par enseignant Apprentissage en général 0,84
Doo et al. (2020) Supérieur Interactions Étayage par ordinateur Apprentissage en général 0,76
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions Performances motrices 0,63
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions Performances cognitives 0,51
Huisman et al. (2018) Supérieur Interactions Rétroactions par les pairs (commentaires) Apprentissage en général 0,48
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions Apprentissage en général 0,48
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions Comportement 0,48
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions correctives Apprentissage en général 0,46
Doo et al. (2020) Supérieur Interactions Étayage Procédural 0,39
Huisman et al. (2018) Supérieur Interactions Rétroactions par un pair Apprentissage en général 0,37
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions Motivation 0,33
Huisman et al. (2018) Supérieur Interactions Rétroactions par les pairs (notes et classements) Apprentissage en général 0,32
Wisniewski et al. (2020) Tous niveaux Interactions Rétroactions de renforcement Apprentissage en général 0,24
Brod (2021) Supérieur Méthode pédagogique Générer des questions, pour résumé Apprentissage en général 0,85
Brod (2021) Supérieur Méthode pédagogique Générer des cartes conceptuelles Apprentissage en général 0,73
Brod (2021) Supérieur Méthode pédagogique Générer des explications Apprentissage en général 0,61
Brod (2021) Supérieur Méthode pédagogique Générer des réponses Apprentissage en général 0,6
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation par l'apprenant du matériel à apprendre Compréhension ou transfert 0,45
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation par le système du matériel à apprendre Mémorisation 0,42
Noetel et al. (2021) Tous niveaux Matériel-Apprenant Segmentation par les enseignants du matériel à apprendre Apprentissage en général 0,41
Brod (2021) Supérieur Matériel-Apprenant Générer des questions, en général Apprentissage en général 0,36
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation du matériel à apprendre Compréhension ou transfert 0,36
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation par le système du matériel à apprendre Compréhension ou transfert 0,35
Noetel et al. (2021) Tous niveaux Matériel-Apprenant Segmentation du matériel à apprendre Apprentissage en général 0,34
Noetel et al. (2021) Tous niveaux Matériel-Apprenant Personnalisation des formulations Apprentissage en général 0,33
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation du matériel à apprendre Mémorisation 0,32
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation par le système du matériel à apprendre Charge cognitive 0,29
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation du matériel à apprendre Charge cognitive 0,23
Noetel et al. (2021) Tous niveaux Matériel-Apprenant Segmentation par les étudiants du matériel à apprendre Apprentissage en général 0,2
Rey et al. (2019) Tous niveaux Matériel-Apprenant Segmentation par l'apprenant du matériel à apprendre Mémorisation 0,19
Noetel et al. (2021) Tous niveaux Matériel-Contenu Sous-titrage des vidéos Apprentissage en général 0,99
Noetel et al. (2021) Tous niveaux Matériel-Contenu Présentation contiguë - temporelle Apprentissage en général 0,78
Noetel et al. (2021) Tous niveaux Matériel-Contenu Présentation contiguë - spatiale Apprentissage en général 0,63
Noetel et al. (2021) Tous niveaux Matériel-Contenu Images animées (processus) Apprentissage en général 0,4
Noetel et al. (2021) Tous niveaux Matériel-Contenu Signalement visuel de l'information importante Apprentissage en général 0,39
Noetel et al. (2021) Tous niveaux Matériel-Contenu Double codage parlé-visuel Apprentissage en général 0,38
Noetel et al. (2021) Tous niveaux Matériel-Contenu Suppression des détails non pertinents Apprentissage en général 0,33
Noetel et al. (2021) Tous niveaux Matériel-Contenu Signalement visuel de l'information importante Motivation 0,13
Rey et al. (2019) Tous niveaux Matériel-Contenu Segmentation par l'apprenant du matériel à apprendre Charge cognitive 0,08
Mayer (2021) Tous niveaux Matériel-Humaniser Voix humaine plutôt que robotique Apprentissage en général 0,74
Noetel et al. (2021) Tous niveaux Matériel-Humaniser Personnalisation des formulations Charge cognitive 0,62
Noetel et al. (2021) Tous niveaux Matériel-Humaniser Images avec éléments anthropomorphisés Apprentissage en général 0,35
Noetel et al. (2021) Tous niveaux Matériel-Humaniser Images avec éléments anthropomorphisés Motivation intrinsèque 0,25
Noetel et al. (2021) Tous niveaux Matériel-Humaniser Images avec éléments anthropomorphisés Jugement de difficulté 0,21
Bernard et al. (2014) Supérieur Média Enseignement hybride Apprentissage en général 0,33
Chernikova et al. (2020) Supérieur Méthode pédagogique Simulation avec patients (médical) Apprentissage en général 2,27
Chernikova et al. (2020) Supérieur Méthode pédagogique Simulation Apprentissage en général 0,85
Yan et al. (2021) Supérieur Méthode pédagogique Auto-évaluation avec rétroactions Apprentissage en général 0,66
Chien et al. (2016) Supérieur Méthode pédagogique Clickers avec questions pendant le cours et post-test juste après Apprentissage en général 0,57
Springer et al. (1999) Supérieur Méthode pédagogique Apprentissage coopératif Apprentissage en général 0,51
Yan et al. (2021) Supérieur Méthode pédagogique Auto-évaluation avec critères explicites Apprentissage en général 0,5
Chien et al. (2016) Supérieur Méthode pédagogique Clickers avec post-test juste après le cours Apprentissage en général 0,49
Yan et al. (2021) Supérieur Méthode pédagogique Auto-évaluation Apprentissage en général 0,46
Bredow et al. (2021) Supérieur Méthode pédagogique Classe inversée Apprentissage en général 0,39
Bai et al. (2020) Supérieur Méthode pédagogique Gamification (2d cycle) Apprentissage en général 0,39
Bai et al. (2020) Supérieur Méthode pédagogique Gamification (1er cycle) Apprentissage en général 0,36
Chien et al. (2016) Supérieur Méthode pédagogique Clickers avec sans post-test juste après le cours Apprentissage en général 0,34
Bredow et al. (2021) Supérieur Méthode pédagogique Classe inversée Satisfaction des étudiants 0,23
Gegenfurtner et Ebner (2019) Supérieur Méthode pédagogique Webinaire Apprentissage en général 0,15
Zheng et al. (2022) Supérieur Méthode pédagogique Apprentissage personnalisé Apprentissage en général 0,66
Zheng et al. (2022) Tous niveaux Méthode pédagogique Apprentissage personnalisé : guidage Apprentissage en général 0,93
Zheng et al. (2022) Tous niveaux Méthode pédagogique Apprentissage personnalisé : diagnostic Apprentissage en général 0,75
Zheng et al. (2022) Tous niveaux Méthode pédagogique Apprentissage personnalisé : suggestions d'apprentissage Apprentissage en général -0,009
Liu et al. (2022) Supérieur Méthode pédagogique Apprentissage par problèmes Pensée critique 0,64

L’enseignement à distance est un enseignement#

Avant tout, il nous faut considérer que l’enseignement à distance ou hybride est une forme d’enseignement. À ce titre, il nous faut déjà regarder quels sont les éléments de processus (provenant de l’enseignant ou même du contexte) qui favorisent le plus l’apprentissage des étudiants, et qui peuvent se réaliser dans toute situation d’enseignement, médiatisée ou non. L’autre argument de poids en faveur de cette démarche est de ne pas trop se focaliser sur la technologie : comme l’indique [Pearson, 2022], “il est peut-être un peu naïf de penser que les enseignants n’ont pas découvert, au cours du temps, les approches qui ont le plus de chances de réussir” (p. 610).

Chaudhary et Singh [Chaudhary & Singh, 2022] listent, à partir d’une méta-analyse de 132 études, huit facteurs qui ont une influence sur l’apprentissage dans l’enseignement supérieur (on peut retrouver de tels principes généraux dans le Document L’apprentissage visible : qu’est-ce qui marche en éducation ?). Nous les classons par effet décroissant en mentionnant leur effet moyen :

  1. Gestion du temps (g = 0,64) : L’enseignant organise et gère le temps de la séance de cours de manière à maximiser l’engagement et l’apprentissage des étudiants.

  2. Modelage (g = 0,52) : L’enseignant aide les étudiants dans leurs stratégies de résolution de problèmes en leur donnant des indications claires, voire en résolvant lui-même un problème (exemple résolu, voir La charge cognitive dans l’apprentissage).

  3. Questionnement (g = 0,51) : L’enseignant pose différents types de questions pour s’assurer des pré-requis ou de la compréhension des étudiants : des questions simples amenant des réponses immédiates (“Savez-vous ce qu’est la théorie de réponse à l’item ?”) jusqu’à des questions élaborées amenant des réponses détaillées (“Pouvez-vous citer 3 principes de construction de QCM bien formés ?”). L’enseignant laisse un temps plus ou moins long pour les réponses, selon leur complexité. Les questions sont claires. L’enseignant fait en sorte qu’il y ait des réponses, même incomplètes, donc adapte ses questions. L’enseignant indique clairement quelles sont les réponses exactes et félicite au besoin ceux qui les ont formulées. Les réponses erronées sont reformulées pour que les étudiants comprennent ce qui manque.

  4. Structuration (g = 0,50) : L’enseignant structure son cours de manière à ce que les étudiants s’y retrouvent et puissent le suivre en sachant où on en est. La structure elle-même peut varier mais comprend souvent les éléments suivants :

  • Définir les objectifs de la séance (voir point 1.).

  • Annoncer un plan de ce qui va être traité dans la séance et montrer l’articulation entre séances.

  • Mettre en évidence les idées principales, à la fin de chaque sous-partie de la séance, et/ou en fin.

  1. Orientation (g = 0,46) : L’enseignant donne des objectifs clairs à propos des contenus et activités présentés en cours.

  2. Climat du cours (g = 0,44) : L’enseignant veille à ce que ses interactions avec les étudiants, celles interétudiants, et le niveau de prédictibilité du cours (pas de désordre) soient de niveau le plus positif ou élevé possible.

  3. Application (g = 0,35) : L’enseignant donne aux étudiants des opportunités de pratiquer une habileté ou une procédure évoquée pendant la séquence. Il réfère si besoin à des problèmes authentiques.

  4. Évaluation (g = 0,34) : L’enseignant évalue les connaissances et compétences des étudiants, de manière à identifier leurs besoins dans les cours futurs, mais aussi à évaluer l’enseignement.

Cette revue générale met bien en évidence les éléments les plus importants pour l’apprentissage : un cours sera d’autant plus aidant pour l’apprentissage des étudiants qu’il favorise l’engagement des étudiants, offre des guidages clairs aux étudiants, permet à ces derniers de se questionner et ne les perde pas. Passons maintenant à des études plus précises, impliquant au moins un groupe d’étudiants travaillant avec numérique interposé.

Le niveau des interactions#

Cette section détaille les types d’interactions possibles entre étudiants ou entre enseignant et étudiants, pouvant être directes ou médiatisées par un système.

Rétroactions#

Les rétroactions (ou feedback) sont des informations données aux apprenants pour les aider à estimer l’écart entre la performance actuelle et l’objectif final, et les moyens de mieux l’atteindre (voir Bienvenue dans l’UE “Évaluer l’apprentissage par ordinateur : Tâches et rétroactions” pour un cours complet sur ce sujet). Différents types de rétroactions sont possibles : indiquer si la réponse de l’apprenant est correcte ou incorrecte, proposer la mise en œuvre de stratégies, ou encore l’aider dans son auto-régulation (comment gérer son apprentissage).

[Wisniewski et al., 2020] et ses collègues ont réalisé une méta-analyse sur 435 études à propos des effets des rétroactions sur l’apprentissage (tous niveaux scolaires confondus, du primaire à l’université). Leurs résultats montrent :

  • que l’effet moyen des rétroactions dans l’apprentissage est modéré : d = 0,55 (0,48 après exclusion des valeurs extrêmes) ;

  • que leur effet est plus important pour améliorer les compétences motrices (d = 0,63) que cognitives (d = 0,51), ou comportementales (discipline, comportement en classe, d = 0,48) et encore un peu moins efficace sur la motivation (motivation intrinsèque, auto-efficacité, persistance, d = 0,33) ;

  • que les types de rétroactions ayant le plus d’effet sur l’apprentissage sont ceux contenant des informations précises (e.g., pourquoi c’est incorrect et comment éviter les erreurs) : d = 0,99. Les rétroactions correctives (e.g., correct, incorrect) sont moins efficaces : d = 0,46 et les simples renforcements ou punitions (e.g., bien/mal) ont un effet faible : d = 0,24.

Étayage ou guidage#

[Doo et al., 2020] ont réalisé une méta-analyse des effets de l’étayage dans un contexte d’enseignement à distance dans le supérieur, recensant 64 résultats provenant de 18 études. L’étayage étant défini comme un “processus qui permet à l’apprenant de résoudre un problème, réaliser une tâche, ou accomplir un but qui serait au-delà de ses efforts sans assistance” [Wood et al., 1976], p. 90 cités par [Doo et al., 2020], p. 61. Un étayage est donc une rétroaction plus spécifique, qui a une durée plus longue et correspond à un guidage. Les résultats montrent que :

  • l’effet moyen de l’étayage (quel qu’il soit) sur les résultats d’apprentissage est élevé (g = 0,87),

  • que cet effet est plus important lorsqu’il porte sur le méta-cognitif (g = 1,1) et le conceptuel (g = 0,96) que sur le procédural (g = 0,39).

  • la source de l’étayage a un effet le plus important lorsqu’il est réalisé par des pairs (g = 1,81), que des enseignants (g = 0,84), ou des ordinateurs (g = 0,76).

Rétroactions par les pairs#

[Huisman et al., 2018] ont réalisé une méta-analyse sur les effets des rétroactions par les pairs sur les performances en écriture d’étudiants, à partir de 24 études. Les résultats montrent que :

  • l’effet moyen des rétroactions par les pairs est élevé si elles consistent en des commentaires et des notes ou classements (g = 1,39) ; il est modéré si elles ne consistent qu’en des commentaires (g = 0,48) ou ne comportent que des notes ou un classement (g = 0,32) ;

  • l’effet moyen des rétroactions par les pairs est élevé si elles sont émises par plusieurs pairs (g = 1.00) plutôt que par un seul (g = 0,37) ;

  • l’effet moyen des rétroactions par les pairs est modéré si on le compare à une évaluation par les enseignants (g = 0,46), ou à une auto-évaluation (g = 0,33).

Il est à noter que le tutorat est souvent considéré comme l’une des méthodes les plus efficaces pour l’apprentissage (la Grande-Bretagne a d’ailleurs lancé en 2000 un programme à large échelle visant à promouvoir cette méthode [Pearson, 2022]).

Le niveau des méthodes pédagogiques#

Cette section détaille quelques méthodes pédagogiques les plus mises en œuvre dans l’enseignement supérieur.

Enseignement hybride#

[Bernard et al., 2014] et ses collègues montrent que, dans le supérieur, l’enseignement hybride lui-même (i.e., la combinaison de n’importe quelle technologie éducative avec de l’enseignement en face à face) a un effet significatif, bien que faible, comparé avec l’enseignement en face à face seul (g = 0,33).

Apprentissage actif : faire produire#

Intéressons-nous maintenant aux méthodes pédagogiques dont le but général est de faire produire, générer, créer, des informations ou des connaissances par les apprenants. On dit souvent que ces stratégies génératives sont préférables pour l’apprentissage à des stratégies informatives, où l’information est simplement exposée aux étudiants.

[Brod, 2021] a entrepris une revue systématique des méta-analyses réalisées sur différentes méthodes génératives, dans un contexte d’enseignement en présence, mais ces données peuvent aussi être pertinentes pour un enseignement hybride ou à distance. Voici les résultats (nous n’avons repris ici que ceux concernant les étudiants) :

  1. Générer des cartes conceptuelles : faire générer une carte conceptuelle d’un cours par des étudiants a un effet modéré sur l’apprentissage (d = 0,73) [Brod, 2021], voir gene:cartes-concepts pour plus d’informations.

  2. Générer des explications : faire générer des explications (expliquer un processus, se centrer sur le pourquoi) par les étudiants a un effet modéré sur l’apprentissage (g = 0,61) [Brod, 2021].

  3. Générer des questions : une autre stratégie est de demander aux apprenants de générer des questions pour améliorer leur compréhension et les amener à se centrer sur les idées principales afin de tester leur compréhension. L’effet moyen global sur l’apprentissage est faible (d= 0,36), mais est élevé lorsqu’il porte sur les idées principales d’un matériel (résumé, ou explications en réponses courtes) (d = 0,85) [Brod, 2021].

  4. Générer des réponses (effet de test) : il est aussi possible de demander aux étudiants de répondre à des questions, ce qu’on appelle l’effet de test), l’effet de la génération de réponses est modéré (g = 0,60). Efficace aussi bien si une rétroaction est donnée après le test (g = 0,63) ou non (g = 0,60) [Brod, 2021].

Favoriser l’auto-évaluation#

[Yan et al., 2021] et ses collègues ont réalisé une méta-analyse pour déterminer les effets sur l’apprentissage de l’auto-évaluation à partir de 26 études. Leurs résultats montrent :

  • que l’auto-évaluation a un effet modéré sur l’apprentissage des étudiants (g = 0,46), que son effet est un peu plus important si elle est accompagnée de rétroactions (g = 0,66), ou réalisée avec des critères explicites (g = 0,50).

Classe inversée#

L’organisation de l’enseignement en classe inversée (i.e., les éléments théoriques sont vus à la maison, les éléments pratiques en cours) a été évaluée par une méta-analyse [Bredow et al., 2021] portant sur 317 études à l’université. Elle montre :

  • que l’effet de la classe inversée sur les résultats d’apprentissage des étudiants, comparés à ceux en classe “traditionnelle” sont modérés (g = 0,39).

  • que l’effet de la classe inversée sur la satisfaction des étudiants est faible (g = 0,23) [Bredow et al., 2021].

Utilisation de clickers#

Chien et ses collègues [Chien et al., 2016] ont réalisé une méta-analyse sur l’effet des systèmes de réponses interactifs (ou clickers) sur l’apprentissage à l’université. Les résultats montrent :

  • que l’apprentissage est supérieur lorsque les post-tests sont immédiatement après le cours (g de 0,49 contre 0,34) ;

  • toujours quand les post-tests sont immédiatement après le cours, l’effet des SRI sur l’apprentissage est plus important lorsqu’il y a plusieurs questions posées tout au long du cours, plutôt qu’une seule (g de 0,57 contre 0,33).

Apprentissage coopératif#

Une méthode pédagogique structurée dans laquelle de petits groupes d’étudiants travaillent ensemble, avec des rôles complémentaires et pour un but commun [Springer et al., 1999]. Une méta-analyse de 39 études montre :

  • un effet positif moyen de l’apprentissage coopératif sur l’apprentissage comparé à un apprentissage “ordinaire” (d = 0,51).

Apprentissage personnalisé#

Le développement des technologies éducatives a vu prospérer “l’apprentissage personnalisé”, permettant de personnaliser l’expérience d’apprentissage des étudiants en fonction de leurs besoins, buts, et compétences avec l’aide du numérique [Zheng et al., 2022]. Ces derniers auteurs ont réalisé une méta-analyse sur 34 articles (tous niveaux d’enseignement, impliquant au total plus de 2 800 apprenants, écrits entre 2001 et 2020). Les résultats montrent :

  • un effet positif moyen de l’utilisation de l’apprentissage personnalisé dans le supérieur (g = 0,66) ;

  • tous niveaux d’enseignement confondus, ce sont la personnalisation du guidage (g = 0,93) et du diagnostic (g = 0,75) qui ont les effets les plus importants. Personnaliser les suggestions d’apprentissage a un effet nul (g = –0,009).

Apprentissage par problèmes#

L’effet de l’apprentissage par problèmes (i.e., une méthode pédagogique fondée sur la présentation de problèmes à résoudre, souvent de manière collaborative, à des fins d’apprentissage) sur la pensée critique (i.e., la pensée réflexive centrée sur ce qu’on doit croire ou ne pas croire) dans l’enseignement supérieur a fait l’objet d’une récente méta-analyse [Liu & Pasztor, 2022] sur 50 articles, impliquant au total plus de 5 000 étudiants. Les résultats montrent que l’effet moyen sur les habiletés de pensée critique est moyennement élevé (d = 0,64).

Simulations#

[Chernikova et al., 2020] et ses collègues ont analysé les résultats de 145 études sur les effets des simulations dans l’enseignement supérieur (sur plus de 10 000 participants). Les résultats montrent un effet positif élevé de l’utilisation des simulations (g = 0,85). Dans le domaine médical, les simulations avec patients réels ont l’effet le plus important (g = 2,27).

Webinaires#

Gegenfurtner et Ebner [Gegenfurtner & Ebner, 2019] ont réalisé une méta-analyse sur les effets des webinaires sur la réussite des étudiants dans l’enseignement supérieur, sur 12 études incluant 15 jeux de données différents. Un webinaire est un séminaire se déroulant à distance, dans lequel les participants interagissent via caméras vidéo, pouvant être aidés par des animateurs. Un ou des enseignant(s) pouvant également délivrer un contenu plus formel, sur lequel les discussions se fondent ensuite. Les webinaires se sont popularisés pendant la pandémie de COVID. Les résultats de cette étude montrent :

  • que l’effet des webinaires sur les gains en apprentissage des participants est très faible, comparé à des situations contrôle (g = 0,15).

Gamification#

[Bai et al., 2020] ont réalisé une méta-analyse sur les effets sur l’apprentissage de la gamification d’un cours , sur 32 études tous niveaux confondus (nous ne référons ici qu’aux résultats sur l’enseignement supérieur, soit 13). La gamification d’un cours revient à introduire des éléments ludiques dans un contexte d’enseignement dans le but de motiver les étudiants (e.g., des points, des badges, des défis). Les résultats montrent :

  • que l’effet de la gamification d’un cours est faible, que ce soit pour des étudiants de premier cycle (g = 0,36) ou second cycle (g = 0,39) — notons qu’il est bien plus élevé pour des lycéens.

Le niveau du matériel présenté aux apprenants#

Cette section est un peu plus complexe que les précédentes, au vu de la riche littérature de recherche, et s’intéresse au caractéristiques du matériel (vidéo, audio) présenté aux apprenants et à leurs activités afférentes. Les principes qui y sont listés sont pour la plupart issus de la théorie de la charge cognitive (voir La charge cognitive dans l’apprentissage). Elle mixe plusieurs travaux.

La méta-méta-analyse de Noetel et al. [Noetel et al., 2021] classe par taille d’effet moyen (entre parenthèses) décroissant les principaux principes de conception multimédia, à partir des résultats de près de 1 200 études impliquant plus de 78 000 participants (tous niveaux scolaires confondus). La revue systématique de Fyfield et al. [Fyfield et al., 2022] à partir de l’analyse de 113 articles, synthétise 29 principes de conception de vidéos (plutôt de type MOOC, par exemple, sur lesquelles on a un contrôle) qui ont été le plus souvent répliqués et pointés pour leur efficacité. Les tailles d’effet n’ont pas été calculées mais les résultats positifs recensés.

[Rey et al., 2019] et ses collègues ont réalisé une méta-analyse (résumant 56 études sur plus de 7 000 élèves et étudiants) sur les effets plus spécifiques de la segmentation de vidéos sur l’apprentissage (tous niveaux scolaires). Enfin, [Mayer, 2021] a sélectionné quelques principes pour la conception de vidéos, sans méta-analyse préalable.

Présentation du contenu#

  1. Le sous-titrage de vidéos et cours pour apprenants en L2 est bénéfique (g = 0,99) pour leur compréhension et leur acquisition de vocabulaire [Noetel et al., 2021]. Il est important de noter que l’effet des sous-titres est bien conditionné au fait que l’apprentissage concerne une langue étrangère. Dans le cadre d’un apprentissage entièrement dans la langue maternelle de l’apprenant, les sous-titres sont redondants et délétères, voir [Mayer & Fiorella, 2014].

  2. Présenter de manière contiguë sur l’écran ou document les différents éléments graphiques (texte, image) sémantiquement reliés est bénéfique pour l’apprentissage (contiguïté spatiale : g = 0,63 ; contiguïté temporelle : g = 0,78)[Noetel et al., 2021].

  3. Signaler visuellement (par pointeur, flèches, texte surligné, voir aussi principe 3. ci-dessous) les informations importantes favorise leur apprentissage (g = 0,39) et, plus faiblement, la motivation des apprenants (g = 0,13) [Noetel et al., 2021].

  4. Être confronté à des explications parlées conjointement à des visuels imagés (double codage, effet de modalité) est plus bénéfique à l’apprentissage que de les lire, toujours conjointement aux visuels (g = 0,38). Cela permet de mieux se focaliser sur les images en comprenant quand même les explications [Noetel et al., 2021].

  5. Segmenter le matériel à apprendre en unités signifiantes a un effet modéré sur l’apprentissage (g = 0,34)

  • des effets faibles de la segmentation globale (i.e., gérées par le système ou l’apprenant) des vidéos ont été montrés, que ce soit sur la compréhension et le transfert (d = 0,36), la rétention ou mémorisation d’informations (d = 0,32), la charge cognitive (d = 0,23) [Rey et al., 2019] ;

  • l’effet est supérieur quand la segmentation est faite par les enseignants (g = 0,41) que par les apprenants (g = 0,20) [Noetel et al., 2021] ;

  • si l’on s’intéresse plus précisément, aux segmentations gérées par le système (ce n’est pas l’apprenant qui décide de faire la pause), on a un effet modéré sur la rétention (d = 0,42), le transfert (d = 0,35), la charge cognitive (d= 0,29) [Rey et al., 2019].

  • pour la segmentation gérée par l’apprenant, le seul effet significatif est celui sur le transfert (d = 0,45). Pas d’effet significatif pour la rétention (d = 0,19), ni la charge cognitive (d = 0,08) [Rey et al., 2019].

  • en revanche, il faut noter que la segmentation a un effet important et négatif sur les durées d’apprentissage (d = - 0,92 pour une segmentation globale, d = -0,87 pour une segmentation automatique et d = - 0,81 pour une segmentation gérée par l’apprenant) [Rey et al., 2019].

  1. Cohérence (voir principe 1 ci-dessous) : Supprimer les détails séduisants et non pertinents pour la compréhension a un effet modéré sur l’apprentissage (g = 0,33), mais plus fort lorsqu’ils étaient présentés de manière permanente (g = 0,43) [Noetel et al., 2021]. Ne présenter dans la vidéo que des éléments directement reliés aux buts d’apprentissage (confirmé par 8 études sur 10) [Fyfield et al., 2022].

  2. Animer des images pour faire comprendre un processus a un effet positif sur l’apprentissage (g = 0,40) [Noetel et al., 2021].

Incitations vis-à-vis de l’apprenant#

Cette sous-section s’intéresse aux sollicitations à l’activité de l’apprenant, dont le but général est de faire produire, générer, créer, des informations ou des connaissances par les apprenants. On dit souvent que ces stratégies génératives sont préférables pour l’apprentissage à des stratégies informatives, où l’information est simplement exposée aux étudiants. Voici les résultats (nous n’avons repris ici que ceux concernant les étudiants) :

  1. Intégrer des activités d’apprentissage : De manière générale, intégrer des activités de pratique, permettant aux étudiants de produire ou réfléchir en lien avec le contenu présenté, que ce soit à la fin de la vidéo ou pendant une pause de la vidéo (confirmé par 7 études sur 7) [Fyfield et al., 2022].

  2. Contrôle par l’apprenant : Permettre un contrôle par l’apprenant (boutons pause et démarrage, avec un curseur pour accéder aux différents passages) (confirmé par 13 études sur 18) [Fyfield et al., 2022].

Humaniser les interactions#

Cette sous-section concerne les manières de rendre les interactions humain-machine plus humaines.

  1. Utiliser une voix humaine : utiliser une voix humaine plutôt que robotique (émotions positives). Effet modéré d = 0,74 (6 expériences sur 7) ;

  2. Personnaliser les formulations (plus simples, plus polies, plus dirigées vers l’apprenant) a un effet modéré sur l’apprentissage (g = 0,33) et réduit la charge cognitive des apprenants (g = 0,62) [Noetel et al., 2021].

  3. Présenter des images où des éléments sont anthropomorphisés (un emoji triste en face d’un virus), ou bien des couleurs attirantes ont un effet modéré sur l’apprentissage (g = 0,35), sur la motivation intrinsèque (g = 0,25), et le matériel est jugé moins difficile (g = 0,21) [Noetel et al., 2021].

  4. Intégration gestuelle (embodiment, le principe 3. ci-dessus est proche) : Intégrer des mouvements humains ou des gestes en parallèle au discours (confirmé par 8 études sur 11) [Fyfield et al., 2022].

  5. Vidéo de l’enseignant : visionner une image statique d’un enseignant pendant une présentation a un effet négatif faible sur l’apprentissage (d = – 0,25) [Mayer, 2021].

Quelques recommandations#

Nous terminons ce document en listant quelques recommandations aux enseignants inspirées des résultats des méta-analyses ci-dessus. Domaine par domaine, voici des recommandations pouvant avoir le plus d’impact sur l’apprentissage des étudiants (nous n’avons repris que celles dont la taille d’effet est supérieure ou égale à 0,70, tous niveaux confondus).

Les interactions enseignant-étudiants#

  • les étudiants s’entre-aident dans la mise en œuvre de procédures ;

  • les étudiants s’entre-évaluent leurs productions ;

  • les étudiants reçoivent des rétroactions informatives à propos de leurs productions ;

  • les étudiants reçoivent un étayage informatisé.

Méthodes pédagogiques#

  • les étudiants sont confrontés à une simulation, e.g., avec patients, dans le domaine médical ;

  • les étudiants génèrent des questions pour produire un résumé à propos du cours ;

  • les étudiants sont confrontés à un guidage ou diagnostic personnalisé ;

  • les étudiants génèrent des cartes conceptuelles à propos du cours.

Les gestes pédagogiques#

À ce jour, il n’y a pas de geste pédagogique analysé comme ayant un effet important sur l’apprentissage des étudiants.

Le matériel#

  • les étudiants visionnent une vidéo avec sous-titrage (pour l’apprentissage d’une langue uniquement) ;

  • les étudiants visionnent une vidéo où les éléments textuels et imagés sont présentés de manière contiguë ;

  • les étudiants visionnent une vidéo où une voix humaine présente l’information.

Références#

Bai et al., 2020

Bai, S., Hew, K. F., & Huang, B. (2020). Does gamification improve student learning outcome? evidence from a meta-analysis and synthesis of qualitative data in educational contexts. Educational Research Review, 30. doi:10.1016/j.edurev.2020.100322

Bernard et al., 2014

Bernard, R. M., Borokhovski, E., Schmid, R. F., Tamim, R. M., & Abrami, P. C. (2014). A meta-analysis of blended learning and technology use in higher education: from the general to the applied. Journal of Computing in Higher Education, 26(1), 87-122. doi:10.1007/s12528-013-9077-3

Bredow et al., 2021(1,2)

Bredow, C. A., Roehling, P. V., Knorp, A. J., & Sweet, A. M. (2021). To flip or not to flip? a meta-analysis of the efficacy of flipped learning in higher education. Review of Educational Research. doi:10.3102/00346543211019122

Brod, 2021(1,2,3,4,5)

Brod, G. (2021). Generative learning: which strategies for what age? Educational Psychology Review, 33(4), 1295–1318. URL: https://link.springer.com/10.1007/s10648-020-09571-9, doi:10.1007/s10648-020-09571-9

Chaudhary & Singh, 2022

Chaudhary, P., & Singh, R. K. (2022). A meta analysis of factors affecting teaching and student learning in higher education. Frontiers in Education, 6. doi:10.3389/feduc.2021.824504

Chernikova et al., 2020

Chernikova, O., Heitzmann, N., Stadler, M., Holzberger, D., Seidel, T., & Fischer, F. (2020). Simulation-based learning in higher education: a meta-analysis. Review of Educational Research. doi:10.3102/0034654320933544

Chien et al., 2016

Chien, Y.-T., Chang, Y.-H., & Chang, C.-Y. (2016). Do we click in the right way? a meta-analytic review of clicker-integrated instruction. Educational Research Review, 17, 1–18. doi:10.1016/j.edurev.2015.10.003

Doo et al., 2020(1,2)

Doo, M. Y., Bonk, C., & Heo, H. (2020). A meta-analysis of scaffolding effects in online learning in higher education. The International Review of Research in Open and Distributed Learning, 21(3). doi:10.19173/irrodl.v21i3.4638

Fawns, 2022

Fawns, T. (2022). An entangled pedagogy: looking beyond the pedagogy—technology dichotomy. Postdigital Science and Education. doi:10.1007/s42438-022-00302-7

Fenouillet & Dero, 2006

Fenouillet, F., & Déro, M. (2006 , September). Le e-learning est-il efficace ? Une analyse de la littérature anglo-saxonne:. Savoirs, n° 12(3), 88–101. URL: https://www.cairn.info/revue-savoirs-2006-3-page-88.htm?ref=doi, doi:10.3917/savo.012.0088

Fyfield et al., 2022(1,2,3,4,5)

Fyfield, M., Henderson, M., & Philips, M. (2022). Improving instructional video design: a systematic review. Australasian Journal of Educational Technology, 38(3), 150–178. doi:10.14742/ajet.7296

Gegenfurtner & Ebner, 2019

Gegenfurtner, A., & Ebner, C. (2019). Webinars in higher education and professional training: a meta-analysis and systematic review of randomized controlled trials. Educational Research Review, 28. doi:10.1016/j.edurev.2019.100293

Huisman et al., 2018

Huisman, B., Saab, N., van den Broek, P., & van Driel, J. (2018). The impact of formative peer feedback on higher education students’ academic writing: a meta-analysis. Assessment & Evaluation in Higher Education, 44(6), 863-880. doi:10.1080/02602938.2018.1545896

Kwet & Prinsloo, 2020

Kwet, M., & Prinsloo, P. (2020). The ‘smart’ classroom: a new frontier in the age of the smart university. Teaching in Higher Education, 25(4), 510-526. doi:10.1080/13562517.2020.1734922

Liu & Pasztor, 2022

Liu, Y., & Pásztor, A. (2022). Effects of problem-based learning instructional intervention on critical thinking in higher education: a meta-analysis. Thinking Skills and Creativity, 45. doi:10.1016/j.tsc.2022.101069

Mayer, 2021(1,2)

Mayer, R. E. (2021). Evidence-based principles for how to design effective instructional videos. Journal of Applied Research in Memory and Cognition, 10(2), 229-240. doi:10.1016/j.jarmac.2021.03.007

Mayer & Fiorella, 2014

Mayer, R. E., & Fiorella, L. (2014). Principles for reducing extraneous processing in multimedia learning: Coherence, signaling, redundancy, spatial contiguity, and temporal contiguity principles. The Cambridge Handbook of Multimedia Learning, pp. 279–315.

Morozov, 2014

Morozov, E. (2014). Pour tout résoudre cliquez ici. Limoges: Fyp.

Noetel et al., 2021(1,2,3,4,5,6,7,8,9,10)

Noetel, M., Griffith, S., Delaney, O., Harris, N. R., Sanders, T., Parker, P., … Lonsdale, C. (2021). Multimedia design for learning: an overview of reviews with meta-meta-analysis. Review of Educational Research, 92(3), 413-454. doi:10.3102/00346543211052329

Pearson, 2022(1,2)

Pearson, H. (2022). The school experiment. Nature, 605, 608–611.

Rey et al., 2019(1,2,3,4,5)

Rey, G. D., Beege, M., Nebel, S., Wirzberger, M., Schmitt, T. H., & Schneider, S. (2019). A meta-analysis of the segmenting effect. Educational Psychology Review, 31(2), 389–419. URL: http://link.springer.com/10.1007/s10648-018-9456-4, doi:10.1007/s10648-018-9456-4

Sims & Fletcher-Wood, 2020

Sims, S., & Fletcher-Wood, H. (2020). Identifying the characteristics of effective teacher professional development: a critical review. School Effectiveness and School Improvement, 32(1), 47-63. doi:10.1080/09243453.2020.1772841

Springer et al., 1999

Springer, L., Stanne, M. E., & Donovan, S. S. (1999). Effects of small-group learning on undergraduates in science, mathematics, engineering, and technology: a meta-analysis. American Education Research Journal, 69(1), 21–51.

Wisniewski et al., 2020

Wisniewski, B., Zierer, K., & Hattie, J. (2020). The power of feedback revisited: a meta-analysis of educational feedback research. Frontiers in Psychology, 10. doi:10.3389/fpsyg.2019.03087

Wood et al., 1976

Wood, D., Bruner, J. S., & Ros, G. (1976). The role of tutoring in problem solving. Journal of Child Psychology and Psychiatry, 17, 89–100.

Yan et al., 2021

Yan, Z., Wang, X., Boud, D., & Lao, H. (2021). The effect of self-assessment on academic performance and the role of explicitness: a meta-analysis. Assessment & Evaluation in Higher Education, pp. 1–15. doi:10.1080/02602938.2021.2012644

Zheng et al., 2022

Zheng, L., Long, M., Zhong, L., & Gyasi, J. F. (2022). The effectiveness of technology-facilitated personalized learning on learning achievements and learning perceptions: a meta-analysis. Education and Information Technologies. doi:10.1007/s10639-022-11092-7