L’impact du développement de l’IA sur l’évaluation formative et certificative
Le développement rapide des intelligences artificielles génératives vient profondément questionner les pratiques d’évaluation à l’école, non pas parce qu’elles rendraient l’évaluation impossible, mais parce qu’elles obligent à en repenser le sens, les modalités et les finalités, tant du côté de l’enseignant que de celui de l’élève. Là où l’évaluation servait souvent à vérifier une restitution de savoirs ou l’application d’une procédure connue, l’IA met en évidence les limites de ces approches lorsqu’un outil peut produire en quelques secondes une réponse correcte, structurée et parfois mieux formulée que celle de l’élève lui-même.
En évaluation formative, l’IA peut devenir un levier puissant à condition d’être intégrée de manière explicite et accompagnée, car elle permet à l’élève de tester des hypothèses, de reformuler sa pensée, de recevoir un retour immédiat et de comparer différentes pistes de résolution avant même l’intervention de l’enseignant. Un élève qui utilise une IA pour vérifier une démarche mathématique, enrichir un plan de rédaction ou comprendre une erreur devient alors acteur de son apprentissage, à condition que l’enseignant lui demande de justifier ses choix, d’expliquer ce qu’il a compris et d’identifier ce qui relève de l’outil ou de sa propre réflexion.
Pour l’enseignant, l’évaluation formative évolue vers une observation plus fine des processus que des productions finales, en s’intéressant davantage à la manière dont l’élève s’approprie les retours de l’IA, ajuste ses stratégies et développe progressivement son esprit critique. Des dispositifs tels que les journaux d’apprentissage, les traces réflexives ou les comparaisons entre une première production, une version assistée par IA et une version finale retravaillée permettent d’objectiver ces apprentissages et de redonner du sens à l’évaluation continue.
L’évaluation certificative, quant à elle, est davantage mise sous tension, car elle repose encore largement sur des tâches standardisées et reproductibles que l’IA peut facilement contourner. Cela ne signifie pas la fin de la certification, mais plutôt la nécessité de diversifier les modalités, en intégrant davantage d’évaluations en présentiel, d’épreuves orales, de situations-problèmes contextualisées ou de productions complexes nécessitant des choix argumentés et personnels. Évaluer un raisonnement, une capacité à expliquer une démarche, à défendre une position ou à analyser une production générée par une IA devient alors plus pertinent que d’évaluer uniquement un résultat.
Dans ce contexte, l’enseignant est amené à expliciter les règles d’usage de l’IA en situation d’évaluation, en distinguant clairement ce qui est autorisé, ce qui doit être déclaré et ce qui est évalué, afin d’éviter une logique de surveillance permanente au profit d’une culture de responsabilité et de transparence. L’évaluation certificative peut ainsi intégrer l’IA comme objet d’analyse, par exemple en demandant à l’élève d’identifier les limites d’une réponse générée, d’en corriger les erreurs ou d’en améliorer la qualité à partir de critères précis.
Enfin, l’IA ouvre des perspectives intéressantes pour l’autoévaluation et la métacognition, notamment à travers des dispositifs de quizz multiples et adaptatifs permettant aux élèves comme aux enseignants de s’interroger sur les connaissances, les compétences et les stratégies mobilisées. Ces quizz, utilisés en amont, en cours ou en aval d’un apprentissage, peuvent servir à diagnostiquer des besoins, à ajuster l’enseignement ou à préparer une évaluation certificative, tout en donnant à l’élève un retour immédiat et argumenté sur ses choix. Lorsqu’ils sont conçus comme des outils de réflexion plutôt que de simple vérification, ils renforcent la capacité de chacun à se situer dans ses apprentissages et à comprendre que l’évaluation n’est pas une sanction, mais un levier de progression dans un environnement où l’IA fait désormais partie du paysage éducatif.
