Feedback explicable dans les EIAH munis d'intelligence artificielle : conception, évaluation et impact en contexte d'apprentissage de la programmation

Nom: 
FÉLIX
Prénom: 
Esther
Date d'inscription: 
2021
Spécialité de la thèse: 
Titre de la thèse: 
Feedback explicable dans les EIAH munis d'intelligence artificielle : conception, évaluation et impact en contexte d'apprentissage de la programmation
Résumé en français: 

Le feedback automatisé est reconnu comme un outil pédagogique efficace pour guider les apprenants dans l'amélioration de leurs stratégies d'apprentissage. Dans les environnements informatiques pour l'apprentissage humain (EIAH), le recours à l'intelligence artificielle (IA) permet de proposer un feedback automatisé à grande échelle. Cependant, comprendre pourquoi un certain feedback est fourni, l'interpréter et l'utiliser efficacement peut rester difficile pour les apprenants, en particulier ceux disposant de faibles compétences en littératie des données. Cela peut en limiter l'appropriation et réduire son impact pédagogique. Cette thèse vise à étudier comment l'explicabilité, issue du domaine de l'IA explicable (xAI), peut être intégrée au feedback automatisé afin d'en améliorer la transparence, la compréhensibilité et l'actionnabilité pour les apprenants. Plus précisément, l'objectif est de proposer aux étudiants non seulement un feedback personnalisé selon leurs actions, mais aussi des explications justifiant la génération de ce feedback. Ce travail s'inscrit dans le contexte de l'enseignement supérieur, dans des situations d'apprentissage de la programmation.

Nous nous intéressons à deux types de systèmes générateurs de feedback. D'une part, des modèles dits « boîtes noires », dont le fonctionnement interne est difficile à interpréter sans outils spécifiques d'explicabilité. Dans ce cadre, nous développons des explications locales par importance des features. D'autre part, nous considérons des modèles dits « boîtes blanches », fondés sur des règles explicites, mais dont la logique est difficilement accessible aux apprenants. Pour ces systèmes, nous concevons des explications locales par l'exemple. Nos contributions incluent également l'étude de différentes temporalités de présentation des explications, ainsi qu'une étude de conception comparant différents formats d'indicateurs (textuels ou visuels, avec ou sans comparaison sociale, et avec ou sans dimension temporelle) afin de concevoir un feedback plus actionnable et interprétable. L'ensemble de notre démarche s'inscrit dans une approche de type Design-Based Research (DBR), fondée sur des cycles itératifs de conception, d'expérimentation et d'analyse en contexte réel, auprès d'étudiants en informatique dans l'enseignement supérieur.

Les résultats montrent que l'efficacité des explications dépend du profil des apprenants, notamment de leurs connaissances préalables et de leur performance académique. Nos différentes études nous ont permis de proposer des principes de conception pour le feedback explicable : séparer conseils et explications, rester simple et concis, adapter la forme et le contenu des explications au profil de l'apprenant, et contextualiser les éléments explicatifs en fonction des objectifs d'apprentissage. Ces travaux ouvrent plusieurs perspectives de recherche, telles que l'exploration d'approches laissant à l'apprenant le contrôle sur la personnalisation de son feedback explicable, l'étude de nouvelles variables du profil susceptibles d'influencer l'appropriation du feedback, ainsi que l'évaluation de l'impact de ces dispositifs sur l'apprentissage dans d'autres contextes pédagogiques.

Abstract in english: 

Automated feedback is recognized as an effective educational tool for guiding learners in improving their learning strategies. In Technology-Enhanced Learning (TEL) environments, the use of artificial intelligence (AI) makes it possible to provide automated feedback on a large scale. However, understanding why certain feedback is provided, interpreting it, and using it effectively can remain difficult for learners, especially those with low data literacy skills. This can limit its uptake and reduce its educational impact. This thesis aims to study how explainability, derived from the field of explainable AI (xAI), can be integrated into automated feedback to improve its transparency, understandability, and actionability for learners. More specifically, the objective is to provide students not only with personalized feedback based on their actions, but also with explanations justifying the generation of this feedback. This work is set in the context of higher education, in programming learning situations.

We are interested in two types of feedback generation systems. On the one hand, there are so-called “black box” models, whose internal workings are difficult to interpret without specific explainability tools. In this context, we develop local explanations based on feature importance. On the other hand, we consider so-called “white box” models, which are based on explicit rules, but whose logic is difficult for learners to understand. For these systems, we design local explanations by example. Our contributions also include the study of different temporalities for presenting explanations, as well as a design study comparing different indicator formats (textual or visual, with or without social comparison, and with or without a temporal dimension) in order to design more actionable and interpretable feedback. Our entire approach is based on Design-Based Research (DBR), which involves iterative cycles of design, experimentation, and analysis in real-world contexts with computer science students in higher education.

The results show that the effectiveness of explanations depends on the profile of the learners, in particular their prior knowledge and academic performance. Our various studies have enabled us to propose design principles for explainable feedback: separate advice and explanations, keep it simple and concise, adapt the form and content of explanations to the learner's profile, and contextualize explanatory elements according to learning objectives. This work opens up several avenues for further research, such as exploring approaches that give learners control over the personalization of their explainable feedback, studying new profile variables that may influence the appropriation of feedback, and evaluating the impact of these mechanisms on learning in other educational contexts.

Université de rattachement: 
Université de Toulouse
Directeur de thèse: 

Julien BROISIN - IRIT

Premier coencadrant: 

Franck AMADIEU - CLLE

Cifre: 
Non
Date de soutenance: 
1 octobre, 2025
Lieu et heure de la soutenance: 

Auditorium Jacques Herbrand - IRIT
14h

Composition du jury: 

Amel BOUZEGHOUB - Professeure - Telecom SudParis - Présidente du Jury
Margarida ROMERO - Professeure - Université Côte d'Azur - Rapporteure
Ronan CHAMPAGNAT - Professeur - La Rochelle Université - Rapporteur
Sandra NOGRY - Maîtresse de conférences - Cergy-Paris Université - Examinatrice
Julien BROISIN - Maître de conférences - Université de Toulouse - Directeur de thèse
Franck AMADIEU - Professeur - Université Toulouse - Jean Jaurès - Co-directeur de thèse


Dernière mise à jour : 10 décembre, 2025 - 16:03