On a vu que l’évaluation critériée est un des préalables essentiels aux pratiques de différenciations construites sur le mode de la réponse à l’intervention (article de blog du mois de mars 2026). Cependant, une fois le constat établi, la véritable question pédagogique émerge : comment utiliser ces données pour créer des groupes de besoin efficaces et mesurer réellement la progression des élèves, notamment en fin de cycle primaire, début du Cycle d’orientation (11-12 ans) ? La recherche scientifique nous offre des cadres précis et validés pour répondre à ces défis.
Mesurer la progression
Comment mesurer la progression des élèves dans les groupes de besoin ? La littérature scientifique plébiscite le modèle de Réponse à l’intervention (RàI), une approche préventive à plusieurs paliers. Dans ce modèle, les élèves qui ne progressent pas suffisamment avec l’enseignement universel (palier 1) sont orientés vers des sous-groupes de besoin (palier 2), recevant des interventions plus fréquentes et ciblées, par exemple en groupes de 3 à 5 élèves.
Pour mesurer la progression au sein de ces groupes, la recherche recommande d’abandonner l’évaluation ponctuelle au profit d’un pistage continu des progrès. Ce pistage agit comme un “thermomètre de performance” qui permet à l’enseignant de vérifier si l’élève est en voie d’atteindre les objectifs d’apprentissage.
Selon quels critères ?
L’évaluation fondée sur le programme (EFP) s’appuie sur deux types de mesures principales, validées empiriquement :
- Les épreuves CBM (Curriculum-Based Measurement) : Ce sont des mesures standardisées, courtes (souvent chronométrées d’une à quelques minutes) et fréquentes, construites à partir de ce qui est enseigné en classe. Elles sont hautement fiables pour détecter les écarts de performance (le niveau actuel de l’élève par rapport au standard attendu).
- Les épreuves EBM (Embedded-Based Measurement) : Ces épreuves évaluent la maîtrise d’habiletés très spécifiques liées au contenu qui vient d’être enseigné. La recherche montre qu’elles possèdent une excellente validité prédictive pour ajuster les interventions, séance après séance.
Il est essentiel de combiner des données de statut (la maîtrise finale du critère) et des données de pente (le taux d’apprentissage sur plusieurs semaines) pour obtenir une évaluation fiable et décider s’il faut maintenir ou modifier le groupe de l’élève.
Validations scientifiques
La validité de ces méthodes n’est plus à prouver.
En 1985 déjà, les travaux pionniers de Deno ont démontré que le CBM est une alternative puissante pour éclairer la planification pédagogique de manière continue.
De plus, les revues de recherche, comme celles de Stecker, Fuchs et Fuchs (2005), confirment que l’utilisation du CBM comme outil d’évaluation formative pour ajuster l’enseignement améliore significativement la réussite des élèves.
Plus récemment, des chercheurs comme Oslund et al. (2012) ont prouvé l’efficacité des épreuves EBM pour prédire et soutenir le développement des compétences spécifiques.
Exemple concret en Français : compréhension et fluidité de lecture
- Le dépistage et le groupe de besoin : Lors d’une évaluation universelle en classe, vous testez la fluidité de lecture et l’identification des mots. Les élèves n’atteignant pas le critère (par ex. lire correctement un certain nombre de mots par minute) sont regroupés en palier 2.
- Mesure de la progression (CBM / EBM) : Une fois par semaine, vous effectuez une mesure CBM chronométrée d’une minute sur un nouveau texte de même niveau pour tracer la “pente” de progression de leur fluidité. En parallèle, vous utilisez des épreuves EBM non chronométrées pour cibler des composantes de compréhension : par exemple, évaluer spécifiquement les microprocessus (comprendre l’information dans une phrase) ou les macroprocessus (compréhension globale du texte).
- La co-construction : En vous appuyant sur les modèles d’Évaluation Continue pour Apprendre Durablement (ECPA), vous rendez les élèves co-responsables. Vous planifiez un temps interactif où les élèves du groupe de besoin discutent et définissent avec vous les critères de réussite (ex: “qu’est-ce qu’une phrase bien comprise ?”) afin qu’ils se fixent eux-mêmes un objectif de progression.
Exemple concret en Mathématiques : résolution de problèmes et calcul
- Le groupe de besoin par Q-matrice : En mathématiques, la résolution de problèmes combine conceptualisation, calcul et application. Pour cibler le besoin exact, vous pouvez utiliser le principe des “Q-matrices”. Cette méthode croise les problèmes proposés avec les composantes cognitives requises (par exemple, la capacité à isoler les données utiles, la capacité à soustraire, la capacité à utiliser des fractions avec un même dénominateur). Le groupe de besoin est formé exclusivement d’élèves bloquant sur la même composante cognitive.
- Mesure de la progression (CBM) : Pour l’aspect calculatoire, vous administrez des tests CBM de Math Calculation Fluency. L’élève a 2 minutes pour résoudre une série de calculs (ex: soustractions ou multiplications complexes). La progression n’est pas mesurée uniquement par le nombre de réponses justes, mais par le nombre de chiffres corrects notés par ligne. Cela permet de valoriser les étapes intermédiaires de l’algorithme, même si le résultat final est erroné.
- Ajustement de l’intervention : Si la courbe de progression (graphique de suivi) de l’élève stagne après trois semaines d’interventions sur l’addition de fractions, la recherche (RàI) stipule qu’il faut modifier la variable d’enseignement. Vous modifiez alors la modalité (ex: passage à des manipulations concrètes avec du matériel) ou rendez l’item de l’évaluation formative plus facile temporairement pour cibler une sous-compétence bloquante.
Cette méthode permet de modéliser avec précision le profil de l’apprenant, puisque la réussite ou l’échec à certains items renseigne directement sur la possession ou non des composantes cognitives ciblées. L’implication demandée aux enseignants est certes assez exigeante, mais la progression des élèves en difficulté se fait à ce prix.
PUBLICATIONS DE RÉFÉRENCE :
Deno, S.-L. (1985). « Curriculum-based measurement: The emerging alternative. » Exceptional Children, 52(3), 219-232.
Jiménez, J., De León, S., & Gutiérrez, N. (2021). Piloting the Response to Intervention Model in the Canary Islands: Prevention of Reading and Math Learning Disabilities. The Spanish Journal of Psychology, 24. https://doi.org/10.1017/sjp.2021.25
Mottier Lopez, L., & Dechamboux, L. (2019). Co-construire le référentiel de l’évaluation formative pour soutenir un processus de co-régulation dans la microculture de classe. Évaluer. Journal international de recherche en éducation et formation, 5(2), 87-111
Nilvius, C., & Svensson, I. (2021). Efficacy evaluation of a full-scale response to intervention program for enhancing student reading abilities in a Swedish school context. Reading and Writing, 35, 1239-1264. https://doi.org/10.1007/s11145-021-10237-3
Oslund, E. L., Hagan-Burke, S., Taylor, A. B., Simmons, D. C., Simmons, L., Kwok, O. M., et alii (2012). Predicting kindergarteners’ response to early reading intervention: An examination of progress-monitoring measures. Reading Psychology, 33(1-2), 78-103.
Roos, H., Fälth, L., Karlsson, L., Nilvius, C., Selenius, H., & Svensson, I. (2023). Promoting basic arithmetic competence in early school years–using a response to intervention model. Journal of Research in Special Educational Needs. https://doi.org/10.1111/1471-3802.12602
Stecker, P.-M., Fuchs, L.-S., & Fuchs, D. (2005). « Using curriculum-based measurement to improve student achievement: Review of research. » Psychology in the Schools, 42(8), 795‑819.