Parents & enfants / Société

Dans l'Éducation nationale, aucune évaluation n'est innocente

Temps de lecture : 7 min

Pour cette rentrée, Jean-Michel Blanquer a étendu les évaluations standardisées instaurées en 2017 aux classes de CE1 et de seconde. Les élèves s'y collent, mais dans quel but?

Évaluations standardisées, résultats biaisés | David Pennington via Unsplash License by

Des centaines de milliers d’élèves, en CP, CE1, sixième et seconde, vont devoir se soumettre à des évaluations standardisées d'ici au mois d'octobre. Les objectifs annoncés sont multiples: mieux comprendre leurs difficultés, établir le profil des classes et des écoles, et recueillir –même si on l'entend moins souvent– des données sur les générations d’élèves. Mais cette opération n'est pas forcément bénéfique pour l’école, ni même pour les élèves.

Les évaluations présentées par Jean-Michel Blanquer sont le fruit d’un travail effectué par les services du ministère et par le nouveau conseil scientifique de l’Éducation nationale, qui a piloté la conception des tests.

L’un de ses membres, Franck Ramus, s’est livré à une longue explication sur son blog: «[Ces évaluations] sont des “repères” qui ont pour objectif principal d’aider les enseignants à déterminer avec précision les acquis, les besoins et les progrès de chaque enfant de CP et de CE1 dans différents domaines du langage et des mathématiques. L’idée est de pouvoir intervenir au plus vite si un enfant rencontre des difficultés d’apprentissage, afin de mieux l’aider à surmonter ces difficultés. [...] Le projet aura également comme conséquence secondaire d’offrir aux enseignants, aux chefs d’établissement, aux inspecteurs et aux recteurs un état des lieux fiable des compétences des enfants dont ils s’occupent. Année après année, en collaboration avec les chercheurs, cet état des lieux permettra de suivre l’évolution des compétences des enfants et sa variation en fonction des interventions et des expérimentations. Un retour aux parents est également prévu.»

Les outils pour évaluer le niveau global existent déjà

Passons sur l’idée de pouvoir intervenir sur les difficultés d’apprentissage. On s’en doute, le personnel enseignant juge lui-même de ces difficultés grâce aux exercices et au travail effectués en classe: quoi que l'on en dise, évaluer est déjà l'une des premières fonctions de l'école.

La question de savoir si l'évaluation fait progresser les élèves est elle largement débattue, et certains collèges expérimentent par exemple d'autres manières de faire, sans notes. Et là où la technocratie avance des idées comme des vérités, les études sur la question sont un peu plus nuancées.

Nous disposons déjà d’évaluations du niveau des élèves, réalisées sur des échantillons. C’est le cas de la célèbre étude Pisa pilotée par l’OCDE, mais aussi de Pearls ou de Timss, des études internationales qui donnent un reflet assez catastrophique du niveau de nos élèves en français et en maths.

La direction de l'évaluation, de la prospective et de la performance (DEPP), l'organe statistique de l'Éducation nationale, organise également une évaluation des élèves appelée Cedre (Cycle des évaluations disciplinaires réalisées sur échantillon).

Voici comment le ministère de l'Éducation nationale présente cette étude: «[Le Cedre], engagé depuis 2003, permet de mesurer les compétences des élèves en fin d’école et en fin de collège. Il couvre la plupart des domaines disciplinaires en référence aux programmes: maîtrise de la langue (école), compétences générales et langagières (collège), langues vivantes étrangères, histoire-géographie et éducation civique, sciences expérimentales, mathématiques. La présentation des résultats permet de situer les performances des élèves sur des échelles de niveau. Renouvelées à intervalle régulier, ces évaluations permettent de suivre l’évolution du “niveau des élèves” dans le temps. L’analyse fine des compétences dans les différentes disciplines constitue en soi un matériau très riche au service des enseignants.»

Si le but affiché des évaluations organisées en ce moment est d'estimer globalement le niveau des élèves, force est de constater que nous disposons en l'état de tous les outils nécessaires.

La fiabilité des résultats est loin d'être assurée

Demeure alors la troisième raison avancée par Franck Ramus: «Offrir aux enseignants, aux chefs d’établissement, aux inspecteurs et aux recteurs, un état des lieux fiable des compétences des enfants dont ils s’occupent.»

Cette idée mérite d’être examinée. Et en réalité, elle a déjà été testée sous Nicolas Sarkozy, quand Jean-Michel Blanquer était à la tête de la direction générale de l’enseignement scolaire (Dgesco). En 2008, de nouveaux protocoles d’évaluation ont été mis en place pour «dresser un bilan des acquis des élèves en CE1 et en CM2, premiers paliers du socle commun. […] Les résultats scolaires des élèves seront un élément essentiel du pilotage», expliquait le ministère.

Un petit tour du côté des archives de la DEPP nous en dit long sur cette expérience. Dans un article de 2015, Thierry Rocher et Bruno Trosseille, du bureau de l’évaluation des élèves, procèdent à une analyse historique des évaluations standardisées, et reviennent sur les problèmes qui ont pu en découler entre 2009 et 2012. Ils soulignent en particulier la confusion des objectifs des évaluations, «à mi-chemin entre l’évaluation-bilan et l’évaluation-diagnostic», et décrivent un phénomène de «surestimation des élèves par leurs enseignants, et ce de façon plus particulièrement marquée dans le secteur privé, en l’absence de contrôle des procédures de passation et de correction».

«Une étude faisait apparaître des distorsions dans les résultats selon que les écoles ont ou non été suivies par les inspecteurs du contrôle qualité, ainsi qu’en fonction des secteurs de scolarisation.»

Thierry Rocher et Bruno Trosseille, du bureau de l’évaluation des élèves de la DEPP

Plus inquiétant encore: «En termes de fiabilité, une étude interne réalisée par la DEPP lors de la première évaluation de janvier 2009, faisait apparaître des distorsions dans les résultats selon que les écoles ont ou non été suivies par les inspecteurs du contrôle qualité, ainsi qu’en fonction des secteurs de scolarisation.»

De la triche, en somme. Le test est toujours le même, ou du moins de même type: les résultats vont mécaniquement s’améliorer grâce au bachotage, à la compréhension de sa logique, aux intentions des équipes. En clair, on s’adapte à la procédure d'évaluation, mais est-ce que l'on progresse pour autant?

En 2010, la suspicion à l’égard de ces évaluations fut telle que l’ajustement des résultats de la deuxième évaluation fut dénoncée comme un «bidouillage».

Menées durant quatre années, de janvier 2009 à juin 2012, ces évaluations ne sont pas reconduites après le changement de gouvernement de mai 2012. Le ministre de l’époque, Vincent Peillon, explique alors que «les outils qui sont actuellement utilisés ne permettent pas une évaluation scientifiquement incontestable du système éducatif national». Leur utilisation sera rendue facultative en 2013, puis abandonnée en 2014.

Preuve que les évaluations standardisées sont également devenues un sujet politique –et particulièrement depuis cette période. Le sociologue Xavier Pons y voyait ainsi «un outil de communication».

Les tests standardisés découragent profs et élèves

En réalité, nous aurions pu nous rendre compte des travers des évaluations bien plus tôt, si nous avions pris la peine de regarder chez nos voisins d'outre-Manche. La Grande Bretagne a depuis longtemps adopté des tests standardisés pour évaluer élèves, profs et établissements. La très sérieuse Revue internationale d'éducation de Sèvres, qui publie des articles sur les différents systèmes éducatifs, s’y intéressait déjà il y a près de quinze ans.

En 2005, une universitaire britannique, Magaret B. Sutherland, offrait un bon résumé des critiques faites aux évaluations standardisées: «On aurait pu, quand même, conclure que ces tests avaient amélioré la qualité de l’enseignement puisque, depuis 1999, un plus grand nombre d’élèves ont atteint le niveau prescrit. Mais en même temps, on a dû reconnaître qu’un pourcentage significatif n’avait pas bien acquis les compétences de base. On constate également d’autres inconvénients. Pendant longtemps, les réactions des enseignants n’ont pas été favorables: on s’est plaint du fardeau imposé aux enfants; on a regretté que la nécessité d’obtenir de bons résultats dans ces trois matières amène à réduire le temps consacré à d’autres disciplines importantes. En outre, les résultats obtenus par les écoles et publiés dans les journaux –les league tables– ont suscité des critiques injustes de la part de lecteurs/parents qui ne savent pas bien interpréter ces résultats.»

Mais les dégâts de ces évaluations ne se limitent pas là. Lors des évaluations actuelles, les élèves font face à des questions auxquelles elles et ils ne peuvent répondre, au prétexte que l'essentiel est de tester le niveau global, quitte à proposer des exercices trop difficiles –autant dire que l'on est loin de la «culture de l’évaluation positive» officiellement prônée par le ministère.

«Un certain nombre d'exercices ne correspondent pas à l'apprentissage des élèves. Ce sont des séquences assez longues, certaines épreuves sont chronométrées, et les élèves peuvent avoir un sentiment d'échec et de stress», indique Jérôme Lambert, du syndicat Snuipp-FSU Paris, à LCI.

Or s’il y a bien une chose que les recherches en psychologie cognitive ont mise en lumière c’est l’«impuissance apprise»: quand une ou un élève est confronté à des questions trop compliquées ou impossibles, elle ou il peine ensuite à répondre convenablement à des exercices faciles.

L’expérience la plus citée est celle des anagrammes. Des élèves doivent reconstituer des mots avec des lettres données: pour une moitié de la classe, l'objectif est impossible à atteindre; pour l'autre, les mots peuvent aisément être trouvés. Devinez qui répond le mieux quand on distribue ensuite les mêmes lettres à tout le monde?

Les données recueillies risquent de desservir les établissements

Venons-en au dernier problème soulevé par les évaluations. En France, toutes les données produites par les services publics sont censées être accessible au public. Le gouvernement s'y est engagé: «La France porte une tradition de transparence démocratique et de partage des informations détenues par la puissance publique. Dans le droit fil de cette tradition, une politique ambitieuse a été engagée depuis deux ans, notamment en matière d'ouverture des données publiques.»

Les évaluations standardisées sont censées aider les établissements à s’améliorer et les classes à progresser. Mais qu’arrivera-t-il quand les données recueillies école par école circuleront? On sait combien les effets de réputation –pas toujours méritée, du reste– influencent les choix scolaires.

Comment seront gérés les résultats des évaluations, leur communication et les fuites possibles lorsqu'ils s'avéreront mauvais? C’est à ce jour l’énorme point aveugle de ce dossier et la question à laquelle le ministre –nous la lui avons posée– ne répond pas.

Newsletters

Êtes-vous «l'enfant mot de passe»?

Êtes-vous «l'enfant mot de passe»?

Un test lancé sur TikTok montrerait qui est le préféré de la fratrie aux yeux des parents.

Santé mentale des adolescents: comment les parents peuvent aider

Santé mentale des adolescents: comment les parents peuvent aider

À l'heure où la détresse psychologique des jeunes est au plus haut, les adultes ont aussi leur rôle à jouer.

De l'autorité paternelle aux nouveaux pères: trois guides sur la parentalité, trois visions de la paternité

De l'autorité paternelle aux nouveaux pères: trois guides sur la parentalité, trois visions de la paternité

Se plonger dans la lecture des manuels écrits par Blanche Gay, Laurence Pernoud et Edwige Antier, c'est se confronter à l'évolution de l'implication paternelle dans la vie domestique et l'éducation des enfants.

Podcasts Grands Formats Séries
Slate Studio