Ways to take action
   |
EDHEC Vox
 |
Programmes
Recherche

Correction de copies assistée par IA : retour sur un test grandeur nature à l’EDHEC

Peter Daly , Professor
Emmanuelle Deglaire , Associate Professor

Dans un article récemment publié (1), Peter Daly et Emmanuelle Deglaire (EDHEC) ont détaillé et analysé une série de tests réalisés sur des travaux et examens d’étudiants de l’EDHEC Business School. Que nous apprend la comparaison des « corrections assistées par l’IA » et des « corrections humaines » ? Durant ce parcours pratique et scientifique – réalisé en partenariat avec le laboratoire pédagogique de l’école (PiLab) - quels défis se sont présentés et quelles leçons peuvent en être tirées ?

Temps de lecture :
10 Mar 2025
Partager

Dans le secteur de l’éducation, l’intelligence artificielle (IA) suscite de grands espoirs : une plus grande accessibilité des savoirs, sans aucune barrière de la langue, des méthodes pédagogiques individualisées adaptées aux besoins de chaque apprenant, une instantanéité des retours aux étudiants quels que soit l’heure ou le lieu où ils se trouvent...

Les craintes aussi sont nombreuses : un avenir tout proche fait d’étudiants « fainéants » qui feront travailler l’IA au lieu de faire grandir leurs cerveaux, et des professeurs sans valeur ajoutée appelés à disparaître.

 

Si beaucoup de travaux académiques se concentrent sur l’usage de l’IA par les étudiants, les travaux menés à l’EDHEC prennent le contrepied pour se concentrer sur son usage par les professeurs.

 

La correction à la croisée des chemins

Parmi les expérimentations en cours au sein de l’EDHEC (assistant virtuel d’enseignement, implémentation en natif des outils IA dans le learning management system, …) un test approfondi a été mis en œuvre sur une application très spécifique de l’IA dans l’éducation, à savoir la correction de copies. Cette tâche présente les caractéristiques idéales pour susciter la mise en place d’un processus d’automatisation avec recours à l’IA : chronophage et répétitive.

 

Ce chantier a été rendu possible par l’implication du PiLab dont la directrice, Emmanuelle Houet, détaille dans un entretien récent (2) la contribution du laboratoire à ce projet et de façon plus large, ses missions.

 

S'inscrivant dans la culture du « Learning by doing », la mise en œuvre de la correction des copies assistée par l’IA a donné lieu en parallèle à un projet de recherche (1), à des mises en applications opérationnelles et a servi de support à de nouveaux objectifs pédagogiques.

 

Un projet de recherche en plusieurs volets

Le premier projet, exploratoire, a eu pour vocation de partager l’expérience d’une professeure dans son « voyage » de prise en main de l’IA à des fins d’assistance à la correction de copies. Ce travail a pris sa source dans des travaux déjà existants, notamment le travail de Molenaar (3) sur l’hybridation entre l’humain et la technologie dans l’enseignement ou encore celui de Raisch et Krakowski (4) sur le paradoxe automatisation-augmentation.

 

Sur le plan méthodologique, il s’est agi de décomposer la tâche de la correction en différentes étapes pour bien identifier là où l’IA aurait le plus de valeur ajoutée

En effet, l’évaluation des étudiants doit être abordée dans son ensemble, soit en sept étapes successives : création d’un sujet d’examen, formalisation des critères de notations, lecture du document produit par l’étudiant, identification des éléments clés, évaluation de la pertinence de ces éléments (activité de notation à proprement parler), production des observations à destination de l’étudiant et enfin vérification de la cohérence du processus d’évaluation dans sa globalité.

En fonction de chaque professeur, la valeur ajoutée de l’IA peut être recherchée à l’une ou l’autre de ces étapes. En l’espèce, l’IA a été mobilisée sur 4 d’entre elles, sur des copies de droit déjà corrigées par l’humain au préalable et utilisées ex post pour tester les compétences de cette technologie à reproduire la notation humaine.

 

L’apport véritable de cette recherche (1) se trouve dans la formalisation du modèle dit « 8C » qui synthétise les tenants et les aboutissants d’une démarche de correction assistée par l’IA.

En effet, pour se lancer dans l’aventure, le professeur doit faire preuve de 1) curiosité car rien ne l’y contraint et avoir 2) confiance tant dans les outils que dans son institution pour enclencher sa démarche. Ensuite techniquement, il va devoir se confronter à des défis techniques qui seront autant d’invitations à faire demi-tour : 3) le format des copies, papier ou numérique, 4) ses aptitudes en matière de technique de prompt et sa rapidité à apprivoiser l’IA, 5) la mise en concurrence des différents outils et l’assistance dont il pourra bénéficier ou non pour leur prise en main, et encore 6) la compatibilité avec les outils existants et notamment le Learning Management System (LLM). S’il a poursuivi le parcours jusque-là, il devra ensuite procéder à 7) un contrôle qualité du rendu global et faire l’analyse de son 8) coût, en technologie mais aussi en temps pour savoir s’il souhaite reproduire l’expérience. Une véritable périple !

In fine, le modèle « 8C » proposé par les auteurs reprend l’ensemble de cette démarche : 1) Curiosité/créativité; 2) Confiance; 3) Composition des copies; 4) Clarification des attentes; 5) Comparaison; 6) Compatibilité; 7) Contrôle; et 8) Coût.

 

La conclusion de ce travail auto-ethnographique est qu’en toute hypothèse, le professeur va rester responsable de sa correction et que le futur n’est probablement pas d’envisager de sous-traiter à l’outil la mission de correction mais d’apprendre à travailler avec lui pour devenir un « professeur augmenté », capable de travailler main dans la main avec l’IA.

 

Le second volet du projet de recherche sur la correction des copies assistée par l’IA porte sur l’acceptabilité sociale d’une telle démarche et de ses usages éthiquement acceptables. En se fondant sur un questionnaire distribué au sein de l’EDHEC Business School, le PiLab a cherché à collecter la perception de chacun, qu’il soit professeur, étudiant ou responsable de programme quant à la mise en place de corrections assistées par l’IA. 

Les résultats sont en cours de traitement approfondi, mais déjà, une information clé ressort du questionnaire : les étudiants, pourtant utilisateurs réguliers de l’IA, ne se sont pas montré très enthousiastes à l’idée que leur professeur en fasse autant !

 

Quelle dissémination ?

Au-delà du présent article, les premières conclusions de ces travaux de recherche ont donné lieu à plusieurs actions de dissémination. A l’extérieur de l’école, les professeurs ont présenté leur travaux, par exemple, à la conférence EURAM, à Bath, en Angleterre, en juin dernier, ou encore lors de la journée pédagogique du Tax Research Network à Cardiff, au Pays de Galles (« Can ChatGPT relieve me from grading my tax exams? »).

 

La dissémination s’opère également au sein de l’école : le bouche à oreille a conduit d’autres professeurs de l’EDHEC à se lancer et à tester à leur tour la correction des copies assistées par l’IA dans le cadre de leurs cours.

 

L’originalité du projet de formation

Dans le cadre du troisième volet, d’enseignement cette fois, il a été décidé de former l’ensemble des étudiants de première année du programme Grande Ecole aux enjeux juridiques de l’IA. Et pour leur permettre de mieux percevoir ces enjeux, c’est sous la forme d’une étude de cas, axée précisément sur la correction des copies par l’IA que les étudiants sont invités à appréhender l’IA Act.

Ce texte de loi est particulièrement dense, et son exploration, au prétexte d’une étude de cas centrée sur eux, permet aux étudiants de ne pas se perdre dans des méandres des si nombreuses hypothèses mais de rester concentrés.

 

Cette étude de cas tombe à point nommé : l’examen de mi-semestre des étudiants qui s’est tenu début février donne lieu à précorrection par une IA. Par cette étude de cas, l’EDHEC Business School prend à cœur son obligation de transparence envers les étudiants et pendant près de deux heures, les étudiants ont ainsi décortiqué tous les enjeux juridiques mais aussi éthiques, car à ce jour, le volet de l’IA Act relatif à la correction des copies assistées par l’IA n’est pas encore applicable !

 

C’est sa transversalité qui fait la force de ce projet: tous les acteurs de l’école sont impliqués, sensibilisés, formés, accompagnés dans leur exploration de l’IA au travers du cas d’usage particulier de la correction des copies. Cette porte d’entrée d’apparence étroite permet en réalité à chacun de dépasser une approche purement utopique ou dystopique pour rentrer dans la réalité des enjeux de l’IA générique dans l'éducation.

 

Références

(1) Daly, P., & Deglaire, E. (2024). AI-enabled correction: A professor’s journey. Innovations in Education and Teaching International, 1-17.  https://doi.org/10.1080/14703297.2024.2390486

(2) 4 questions à Emmanuelle Houet (EDHEC PiLab) sur l’innovation pédagogique et la place de l’intelligence artificielle (mars 2025) EDHEC Vox - https://www.edhec.edu/fr/recherche-et-faculte/edhec-vox/4-questions-emmanuelle-houet-edhec-pilab-innovation-pedagogique-intelligence-artificielle

(3) Molenaar, I. (2022). Towards hybrid human‐AI learning technologies. European Journal of Education, 57(4), 632–645. https://doi.org/10.1111/ejed.12527

(4) Raisch, S., & Krakowski, S. (2021). Artificial intelligence and management: The automation–augmentation paradox. Academy of Management Review, 46(1), 192–210. https://doi.org/10.5465/amr.2018.0072

 

Pexels.com - Markus Winkler (2025)