Comment construire un processus d’évaluation en
EIAH fondé sur le Design-Based Research ?
Nadine MANDRAN, Maelle PLANCHE (Laboratoire Informatique de Grenoble LIG), Patricia MARZIN-JANVIER (CREAD-Université de Bretagne Occidentale), Mathieu VERMEULEN (IMT Lille Douai), Aous KAROUI, Cédric d’HAM, Isabelle GIRAULT, Claire WAJEMAN, Christian HOFFMANN (Laboratoire Informatique
de Grenoble LIG)
|
RÉSUMÉ : Cet
article propose un modèle de méthode pour construire un processus
d’évaluation d’une plateforme numérique pour
l’enseignement en contexte réel dans le temps. Les objectifs de
cette évaluation sont : répondre aux attentes des
enseignants-utilisateurs, fournir des données pour la recherche, faire
évoluer techniquement la plateforme et fournir à
l’institution, financeur du projet, des retours sur son utilisation. Nous
illustrons cette méthode avec le projet LabNbook, concernant 157
enseignants et plus de 4500 étudiants. La méthode incluant les
sept propriétés du Design-Based Research (DBR), nous dressons en
conclusion un bilan de l’utilisation de ces dernières.
MOTS CLÉS : Méthode,
évaluation longitudinale, Design-Based Research. |
How to build an evaluation process in TEL based on Design-Based Research? |
|
ABSTRACT : This
paper proposes a method model to build a process for evaluating a digital
learning platform in a real context over time. The objectives of this evaluation
are: to meet the expectations of teachers, to provide data for research, to make
the platform evolve technically and to provide the institution funding the
project with feedback on its use. We illustrate this method with the LabNbook
project involving 157 teachers and more than 4500 students. As the method
includes the seven properties of Design-Based Research (DBR), we finally report
on the use of these properties.
KEYWORDS : method,
longitudinal evaluation, Design-Based Research. |
1. Introduction et contexte
Dans le cadre des
Environnements Informatiques pour l’Apprentissage Humain (EIAH) et plus
particulièrement de l’usage de plateformes numériques pour
l’enseignement, l’évaluation de l’impact d’une
telle plateforme est fondamentale pour rendre compte de sa diffusion et de son
utilité. Ces évaluations permettent de recueillir des mesures et
des données utiles pour les institutions (Rectorat, Université,
etc.) qui en promeuvent l’utilisation, pour avoir un retour sur la
diffusion et l’utilisation d’un EIAH donné. En outre, ces
plateformes numériques sont parfois construites à partir de cadres
théoriques et leur utilisation en contexte réel est
l’occasion de produire des données pour répondre à
des problématiques de recherche. Ces données fournissent aussi des
informations pour faire évoluer les aspects techniques et
l’ergonomie des plateformes. Les évaluations peuvent
également répondre à des besoins des enseignants, en
fournissant par exemple des informations sur l’activité de leurs
élèves. Ces évaluations doivent être conduites dans
le temps pour étudier les évolutions induites par
l’utilisation et l’appropriation de la plateforme par les
utilisateurs.
Le problème qui se pose est alors de savoir comment construire une
évaluation longitudinale qui puisse répondre à ces
différents besoins : 1) les attentes des financeurs du projet,
2) les besoins des enseignants, 3) la production de données
pour la recherche et 4) l’amélioration technique de la
plateforme. Ce problème est d’autant plus difficile que les
personnes ayant à conduire ces évaluations sont rarement
formées aux méthodes de production des données des Sciences
Humaines et Sociales (p. ex., questionnaires, entretien, focus groups, etc.).
Cet article propose une méthode adaptable pour construire un processus
d’évaluation longitudinale (PEL) d’une plateforme
numérique conçue dans un cadre de recherche et financé par
une institution. Nous présentons les différentes étapes et
les outils nécessaires pour construire ce type d’évaluation.
Trois questions de recherche conduisent cet article :
- 1) Quelles sont les particularités de
l’évaluation des EIAH dans un contexte de
recherche ?
- 2) Quelles sont les méthodes de production de
données adéquates ?
- 3) Comment construire un tel processus afin de produire des
données pertinentes pour l’ensemble des acteurs du projet ?
Ces questions de recherche, bien qu'elles soient généralisables
à tout EIAH, sont, dans notre cas, issues du cadre théorique et
d’un contexte spécifique à un projet de plateforme
numérique d’apprentissage dans le supérieur. En effet, pour
illustrer les étapes de cette méthode, nous l’appliquons au
cas du projet LabNbook (LNB). L’objectif est la conception et la diffusion
de la plateforme LNB dédiée à l’enseignement des
sciences expérimentales (Biologie, Physique, Chimie, Géologie,
etc.). Actuellement, cette plateforme est utilisée par 157 enseignants du
supérieur et près de 4500 étudiants. Les
propriétés proposées par (Wang et Hannafin, 2005) dans le cadre du Design-Based Resarch serviront à élaborer
ce processus.
L’article est structuré en cinq sections. Tout d’abord,
nous dressons un état de l’art sur l’évaluation des
plateformes numérique en EIAH. Ensuite, nous nous positionnons par
rapport à une évaluation en contexte de recherche ancrée
dans le terrain ayant besoin de produire des données. Nous poursuivons
sur la présentation de la méthode de construction du processus
d’évaluation longitudinale (PEL) et de son illustration par le
projet LNB. Nous ferons ensuite un retour sur les avantages et les limites de ce
PEL. Nous conclurons sur une série de questionnements à propos de
ces évaluations en contexte de recherche et plus particulièrement
sur les propriétés du Design-Based Research (DBR).
2. Evaluation des plateformes et DBR
Dans cette section, nous présentons un
état de l’art sur les évaluations des plateformes en EIAH.
Depuis l’apparition des premières plateformes de type e-learning, leurs méthodes d’évaluation ont
évolué au fil des années. Ainsi, les approches
utilisées au départ se centraient principalement sur
l’utilisabilité, en vérifiant le respect des normes
théoriques (Rentroia-Bonito et Jorge, 2003) (Nielsen, 1994).
Dans un deuxième temps, il y a eu plus de synergie entre les recherches
sur l’utilisabilité et celles sur les EIAH en associant des
tests-utilisateurs à des évaluations ergonomiques de la part
d’experts (Granić et Ćukušić, 2011).
Plus récemment, dans une méta-étude portant sur 30
plateformes numériques, Donnelly et al. mettent en avant une liste de
critères pour identifier des plateformes efficaces (Donnelly et al., 2014),
comme les fonctionnalités fournies aux enseignants, l’impact sur
l’apprentissage, le développement de l’autonomie des
apprenants et de pratiques d’apprentissage métacognitives, et la
mise en œuvre de la collaboration. Issus de la comparaison des impacts de
plusieurs plateformes sur l’apprentissage, ces critères peuvent
paraître spécifiques aux plateformes numériques. Cependant
ils négligent les aspects d’utilisabilité. Toutefois, ces
travaux portent le plus souvent sur des évaluations ponctuelles qui ne
sont généralement pas conduites en situations réelles, ni
sur le long terme.
Le Design-Based Research a été proposé par (Collective, 2003), (Collins, 1992),
pour conduire des recherches en situation réelle. (Wang et Hannafin, 2005) ont étudié des recherches de terrain selon sept
propriétés.
- 1) Pragmatique : il s’agit de faire progresser,
d’une part, les contributions scientifiques dans l’enseignement et
dans l’apprentissage et, d’autre part, la pratique des
enseignants ;
- 2) Fondée sur le terrain : la recherche est
conduite en « real world where participants interact socially
» (Wang et Hannafin, 2005) ;
- 3) Interactive : les chercheurs, les enseignants, les
élèves et/ou les décideurs travaillent ensemble afin de
faire émerger la connaissance scientifique et la mise en œuvre de
cette connaissance dans le monde réel ;
- 4) Itérative : il s’agit de
différentes périodes au cours desquelles des allers-retours entre
recherche et terrain vont être réalisés ;
- 5) Flexible : c’est la possibilité de faire
évoluer la question de recherche par l’analyse des données
expérimentales ;
- 6) Intégrative : le DBR intègre
différentes méthodes de production et d’analyse des
données ;
- 7) Contextuelle : il s’agit de la
nécessité de faire le lien entre les résultats et le
contexte dans lequel les données et les résultats ont
été produits.
Plusieurs contextes doivent être étudiés ; cette
multiplicité de contextes permet de garantir la
« généricité » des résultats et
d’augmenter leur niveau de validité. A la suite de cette analyse,
les auteurs discutent 9 principes rarement repris dans la littérature. Un
dixième principe a été ajouté par (Mandran et al., 2021) pour la mise en place d’indicateurs d’objectifs, afin de suivre et
piloter les itérations.
Le DBR tend à se diffuser dans la communauté des EIAH et, bien
que cette méthode soit basée sur des propriétés,
elle reste sujette à de nombreuses interprétations. A ce propos,
lors d’une conférence, une chercheure a résumé la
situation par « on fait tous du DBR car l’on mixe les
méthodes de production de données, on travaille in situ, on fait
des itérations, on intègre tous les utilisateurs mais en dehors de
ça ? ». En effet, les propriétés bien
que pertinentes restent difficiles à implémenter, car le DBR
n’est pas décrit comme un processus et ne propose pas
d’outils (Herrington et al., 2007), (McKenney et Reeves, 2019).
Ces auteurs ont également proposé des processus et des outils pour
accompagner cette méthode. Cependant, les propriétés du DBR
ne sont pas clairement mises en lien avec les étapes des processus
proposés.
Dans ces travaux, nous avons identifié des évaluations
d’utilisabilité, d’utilité des dispositifs pour
l’apprentissage et des méthodes d’évaluation
itératives. En revanche, nous n’avons pas trouvé de
processus d‘évaluation longitudinale, c’est à dire
d’organisation dans le temps de ces évaluations, ni
d’évaluation qui réponde à plusieurs objectifs. Pour
répondre à ce manque, nous proposons un processus
d’évaluation longitudinal en lien avec les propriétés
du DBR.
3. Positionnement de nos travaux
Avant de présenter la manière dont nous
pouvons envisager la construction d’un processus d’évaluation
dans les EIAH, nous tenons à préciser notre positionnement sur ce
que signifie « évaluer dans un contexte de recherche en
EIAH » et sur la production des données.
3.1. Evaluer dans un contexte de recherche en EIAH
L’un des objectifs de l’utilisation des plateformes en EIAH
étant de produire des données pour la recherche, il convient de
choisir une posture épistémologique pour cadrer le processus de
création des connaissances scientifiques, leur domaine de validité
et leur mise en œuvre dans le monde réel. Il s’agit ici de la
posture du chercheur vis-à-vis de l’élaboration d’une
connaissance scientifique, d’un savoir et non du cadre de transmissions
des savoirs par un enseignant (De Vries et Baillé, 2006).
Nous avons souvent observé une confusion entre ces deux
« formes » d’épistémologie et
c’est pourquoi nous tenons à préciser ici notre posture
épistémologique de chercheur. « Pour un chercheur,
expliciter sa posture épistémologique dans un projet de recherche,
c’est alors préciser les hypothèses fondamentales sur
lesquelles se fonde le processus d’élaboration et de justification
des connaissances dans le projet considéré. » (Avenier et Thomas, 2015).
Présenter ce cadre épistémologique du chercheur dans les
publications de recherche est indispensable pour conduire une démarche
scientifique rigoureuse car le chercheur se positionne sur sa manière de
construire de la connaissance et sur les critères de validité de
ses travaux. Par exemple, pour étudier l’impact d’une
plateforme en EIAH, nous avons besoin de mener nos investigations sur du long
terme dans un contexte réel auprès de plusieurs utilisateurs
(étudiants et enseignants) qui vont être amenés à
utiliser cette plateforme et à modifier leurs manières
d’enseigner ou d’apprendre. Dans ce contexte, le recours aux plans
expérimentaux classiques de la statistique inférentielle
n’est pas suffisant. Nous avons besoin de mobiliser à la fois des
données qualitatives pour comprendre par exemple les activités des
enseignants et des données quantitatives pour dénombrer. Mobiliser
ces deux démarches de production de données pour répondre
à des objectifs de recherche demande de choisir un cadre
épistémologique qui autorise cette mixité. Cette
approche pluri-méthodes (entretien, questionnaires, traces, etc.) offre
au chercheur la possibilité de mobiliser toutes les sources de
données pour circonscrire et étudier une question de recherche. (Balacheff et Lund, 2013) proposent ce positionnement au travers du terme « multi vocalité
».
Pour choisir un cadre épistémologique, nous proposons tout
d’abord d’identifier quels connaissances et/ou outils sont produits
durant ces travaux. La recherche outillée avec une plateforme
numérique peut s’apparenter à une Recherche en Informatique
Centrée Humain (RICH). Cette recherche se base sur
l’activité humaine pour créer des dispositifs supports
à cette activité. Elle produit d’une part une contribution
scientifique (p. ex., modèle de l’apprenant, modèle de
scénarios, etc.) et d’autre part des outils activables pour
accompagner l’activité humaine (par ex., une interface, une
plateforme, etc.) (Mandran, 2018).
La plateforme informatique est un outil activable dans le sens où
l’utilisateur va réaliser une activité avec l’outil
(p. ex., enseigner, répondre à des questions pour produire un
rapport, développer des scénarios d’apprentissage, produire
des ressources pédagogiques, etc.).
La connaissance scientifique et l’outil sont entrelacés et
interdépendants (Simon, 1996/2004), (Avenier, 2019).
L’utilisation de l’outil activable dans la réalité
contribue au raffinement de connaissances ou à la création de
connaissances. La figure 1 représente ce cadre de recherche.
Figure 1 • Proposition d’un
cadre pour une recherche en EIAH
Dans le cadre de la recherche en EIAH, il convient de décrire aussi le
cadre théorique de l’apprentissage sur lequel s’appuie la
construction de la plateforme et de ses fonctionnalités. Les cadres
théoriques explicitent les concepts manipulés par le chercheur,
permettent d’élaborer des indicateurs à mesurer sur le
terrain et de faire une interprétation cohérente des
données recueillies en vue de répondre aux hypothèses
posées. Dans le cas de la didactique des sciences, différents
cadres existent. Ils sont souvent mobilisés en fonction des
problématiques (Lhoste et Orange, 2015).
La posture épistémologique du chercheur, telle que
décrite précédemment, et le cadre théorique de
l’apprentissage doivent être choisis avant d’initier tout
processus d’évaluation, afin d’obtenir des données
pour répondre à des questions de recherche.
3.2. Données et outils de mesures
Dans cette section, nous indiquons notre positionnement sur certains concepts
liés aux données. Pour répondre à une
problématique de recherche, des données doivent être
recueillies ou produites. Selon l'OCDE : « Les données de
la recherche sont définies comme des enregistrements factuels (chiffres,
textes, images et sons), qui sont utilisés comme sources principales pour
la recherche scientifique et sont généralement reconnus par la
communauté scientifique comme nécessaires pour valider les
résultats de la recherche ». Le concept
d’enregistrement factuel traduit la nécessité de
garder une trace d’une observation réalisée sur le terrain
pour valider des résultats scientifiques. Mais cette définition ne
précise rien sur la nature des données. D’autres
définitions sur les données existent, mais elles restent
relativement larges et sont dépendantes des domaines scientifiques.
Nous avons donc choisi un positionnement vis-à-vis de ces concepts de
données et de mesures. Nous faisons la distinction entre des
données qui existent avant la recherche et celles qui seront produites
par la recherche. Par exemple, un support de cours (comme un manuel scolaire)
est une « donnée existante » hors du
contexte de la recherche, que le chercheur peut mobiliser pour répondre
à ses questions. Le terme de « donnée
mesurée » sera utilisé pour désigner les
données construites par et pour le chercheur sur la base de travaux
théoriques (p. ex., une note d’utilisabilité). Ces deux
notions font la distinction entre ce qui est créé dans une
démarche scientifique et ce qui est issu du terrain indépendamment
d’une question de recherche.
Pour produire ces données mesurées, à l‘instar des
sciences expérimentales, le chercheur conçoit un outil de
mesures pour recueillir des données. Il peut s’agir d’un
questionnaire ou d’un guide d’entretien. Lors de la passation
d‘entretiens, les guides d’entretiens garantissent la
reproductibilité de la méthode. Il en est de même pour les
questionnaires lors d’enquêtes. Un autre chercheur peut utiliser ces
mêmes outils pour la même question de recherche.
Pour la production des données mesurées, nous faisons
également deux autres distinctions. D’une part, nous distinguons la
démarche qualitative de la démarche quantitative. La
démarche qualitative (Paillé et Mucchielli, 2011) permet de comprendre et d’identifier des phénomènes. Le
nombre d’utilisateurs consultés est généralement
faible (entre 6 et 20 personnes). En revanche, la variété des
profils est importante pour observer un maximum de cas. Les méthodes de
production des données sont, par exemple, des observations in-situ, des entretiens ou des focus-groups. Les méthodes
d’analyse des données mesurées sont alors du codage de
corpus, de l’analyse thématique ou de l’analyse textuelle. La
démarche quantitative (Creswell, 2013) permet
de quantifier des faits ou des avis. La sélection des individus repose
soit sur une méthode d’échantillonnage (i.e. quotas,
aléatoire) soit sur un recensement. Dans ce cas, l’ensemble des
personnes est consulté. Les données mesurées sont, par
exemple, des traces d’activités ou des réponses à des
questionnaires. Les méthodes d’analyse des données sont des
analyses statistiques et des visualisations.
D’autre part, pour caractériser la nature des mesures, nous
distinguons la nature factuelle de la nature déclarative des données mesurées. Les mesures factuelles résultent de
l’observation de faits ou d’activités. Elles sont
mesurées par des traces d’activité sur la plateforme ou des
captures vidéo de séances d’enseignement. Les mesures
déclaratives reposent sur l’expression des enseignants et des
étudiants sur leurs expériences et leurs perceptions. Elles sont
recueillies par des questions dans des questionnaires ou lors
d’entretiens.
4. Comment construire un Processus d’évaluation longitudinale
(PEL) ?
La méthode que nous proposons a pour objectif
de guider des chercheurs dans la construction d’un PEL afin de
répondre aux quatre objectifs décrits précédemment
(institution, enseignement, technique et recherche). Pour la formaliser, nous
utilisons le modèle de méthode THEDRE (Traceable Human
Experiment Design REsearch) (Mandran, 2018), (Mandran et Dupuy-Chessa, 2017),
qui a été conçu pour apporter des outils de traçage
à des travaux conduits dans le domaine de l’informatique impliquant
l’humain. Il est fondé sur la théorie du constructivisme
pragmatique, de la démarche qualité et de la démarche
centrée utilisateurs. Il permet de dresser une liste de tâches pour
conduire un processus de recherche et de lui adjoindre des outils facilitateurs
(p. ex., un guide pour rédiger un protocole de production des
données). Dans le cadre de cet article, nous présentons notre
méthode de construction du PEL sous la forme d’une liste de
tâches structurée en six temps (voir Fig. 2).
Figure 2 • Description du processus de
construction d’un dispositif d’évaluation d’une
plateforme numérique en EIAH
Avant d’exemplifier ce processus par le cas de la plateforme LabNbook,
nous expliquons chacune des tâches pour présenter et expliciter le
processus dans sa globalité.
TEMPS 1 : « Décrire le contexte du
projet »
- T1.1 : Décrire l’organisation du projet et pour
qui l’évaluation doit être réalisée. Cette
étape permet de circonscrire les objectifs du projet, les personnes
impliquées et les contraintes. Elle permet aussi d’identifier
à quels acteurs du projet l’évaluation fournira des
informations et dans quelle finalité.
- T1.2 : Se mettre en accord avec les règles
éthiques et de déontologie ainsi qu’avec la
réglementation de production des données.
TEMPS 2 : « Décrire les cadres théoriques de
conduite de la recherche »
- T2.1 : Choisir une posture épistémologique pour
construire la connaissance scientifique (voir 3.1).
- T2.2 : Choisir une méthode de conduite de la
recherche. Identifier des principes ou des processus à suivre pour
conduire une recherche. (par ex., Design-Based Research).
- T2.3 : Décrire dans quel cadre théorique de
l’apprentissage l’outil numérique a été
élaboré et dans lequel il sera évalué. Il
s’agit de décrire le cadre épistémologique de
transmission des savoirs, ainsi que d’autres cadres théoriques de
référence. Ces cadres permettent d’élaborer des
questions de recherche et d’avoir des moyens de produire et
d’analyser les données.
TEMPS 3 : « Décrire l’outil et le terrain
d’évaluation »
- T3.1 : Décrire l’outil numérique et ses
fonctionnalités. Cette description permet d’identifier les
fonctionnalités à évaluer.
- T3.2 : Décrire comment le terrain sera pris en compte,
avec quels utilisateurs, et les contraintes inhérentes à ce
terrain. Il s’agit d’identifier les utilisateurs à impliquer
et leurs contraintes, de manière à anticiper les problèmes
de recrutement ou de calendrier et trouver des alternatives. Les biais
expérimentaux sont décrits dans cette étape.
TEMPS 4 : « Poser les questions de recherche, choisir les
indicateurs »
- T4.1 : Poser les questions de recherche. En lien avec les
cadres théoriques de l’apprentissage mobilisés et
l’outil proposé, il s’agit de rédiger la
problématique, les questions de recherche auxquelles
l’évaluation apportera des réponses.
- T4.2 : Choisir les indicateurs, construire une liste de
mesures à prendre sur le terrain en lien avec ces indicateurs, les
répertorier par objectifs.
- T4.3 : Choisir les types de données à produire
en lien avec la posture épistémologique, la méthode de
conduite de la recherche (p. ex., Design Based Research) et la
démarche de production des données (p. ex., qualitatif,
quantitatif, mixte, etc.).
- T4.4 : Identifier les données existantes sur le
terrain, à recueillir auprès des acteurs.
- T4.5 : Construire les outils de mesures associés, les
tester et les améliorer. Il s’agit de disposer des outils
suffisamment décrits et évalués avant la production des
données sur le terrain. Ce travail est le plus souvent itératif.
Les biais expérimentaux sont complétés dans cette
étape.
- T4.6 : Schématiser le processus. Il s’agit
d’avoir une vue globale des étapes, des objectifs et des
méthodes de production des données. Représenter
graphiquement le processus d’évaluation pour le suivre, le
partager, le diffuser.
TEMPS 5 : « Recueillir les données, adapter le
recueil et vérifier la cohérence »
- T5.1 : Recueillir les données existantes et
mesurées sur le terrain.
- T.5.2 : Faire un bilan sur les données recueillies et
un diagnostic sur les outils de mesures, les adapter, les améliorer, les
supprimer. Il s’agit de vérifier que les données recueillies
sont cohérentes avec les objectifs fixés et que les outils de
mesures sont adaptés à la situation.
A la suite de ce temps de recueil, une dernière étape consiste
à analyser et interpréter les données. Ce sixième
temps ne sera pas exemplifié dans cet article. Cependant, à titre
indicatif, nous proposons trois tâches.
TEMPS 6 : « Analyser et interpréter »
- T6.1 : Réaliser une analyse descriptive des
données recueillies. L’objectif est d’avoir un premier
état des lieux des données recueillies. Cette analyse permet
d’avoir un premier niveau d’interprétation de ce qui a
été mesuré. Elle offre déjà la
possibilité de répondre à la question de recherche, voire
de la compléter, la raffiner.
- T6.2 : Choisir les méthodes d’analyse en lien
avec le type de données ou de mesures recueillies. Le choix de ces
méthodes d’analyse permet d‘élaborer un plan de
traitement des données et de le documenter.
- T6.3 : Analyser les données et mesures,
interpréter les résultats.
Globalement les six temps doivent se conduire dans l’ordre car ils
dépendent les uns des autres. En effet, il est nécessaire
d’expliciter clairement le contexte du projet et les cadres
théoriques pour choisir les indicateurs répondant aux objectifs.
Cependant des allers-retours entre les différents temps sont possibles
comme exposé sur la Figure 2. Poser la question de recherche et le choix
des indicateurs peut demander de revenir interroger les cadres théoriques
pour raffiner la question et choisir d’autres indicateurs. Le recueil de
données peut demander de revoir les outils de production utilisés.
Un problème de terrain peut demander de choisir un autre terrain
d’évaluation ou une autre plateforme numérique. Quant aux
tâches à l’intérieur des temps, elles peuvent se
conduire en parallèle et de manière itérative. Par exemple,
la création d’un questionnaire va réinterroger les
indicateurs à produire.
5. Application au Projet Idex – LabNbook (LNB)
Cette section présente une illustration de la
construction d ‘un processus d’évaluation au travers du
projet LNB.
5.1. TEMPS 1 : Décrire le contexte du projet
Le processus d’évaluation dont il est question ici a
été construit dans un contexte de projet financé par
l’IDEX formation de l’Université Grenoble Alpes autour de la
plateforme LNB. L’objectif pédagogique de LNB est de former les
étudiants à la démarche expérimentale en sciences.
Cet outil a pour finalité d’accompagner des enseignants des
sciences expérimentales dans la conception d’enseignements
centrés sur l’étudiant et de permettre aux étudiants
de produire de façon collaborative des écrits scientifiques (p.
ex., cahiers de laboratoire, rapports, etc.).
Le projet vise à promouvoir les transformations pédagogiques
sur le site universitaire de l’Université Grenoble Alpes (UGA) en
particulier vers des pédagogies dites « actives »,
à l’aide de LNB. L’objectif principal est
d’étudier les pratiques des enseignants, les usages et
l’appropriation de la plateforme par des enseignants et des
étudiants en sciences expérimentales, au fur et à mesure de
l’utilisation de LNB. Il doit répondre à quatre
acteurs : les financeurs du projet, les enseignants utilisateurs de la
plateforme, les chercheurs en didactiques des sciences expérimentales et
les développeurs.
L’équipe projet est composée de cinq
enseignants-chercheurs qui ont conçu LNB. La programmation et le
développement de LNB repose sur l’un des enseignants-chercheurs et
un informaticien. Deux méthodologues contribuent au projet pour la
conception et la mise en œuvre du processus d’évaluation. Les
objectifs sont 1) de fournir des retours aux financeurs sur l’utilisation
et l’impact de la plateforme, 2) de répondre aux attentes et
besoins des enseignants, 3) de répondre à des questions de
recherche et 4) de fournir des informations aux développeurs pour
l’amélioration de la plateforme. La déclaration de
conformité au Règlement Général de la Protection des
Données (RGPD et les conditions générales
d’utilisation (CGU) ont été rédigées en
collaboration avec le responsable de la protection des données de
l’UGA.
5.2. TEMPS 2 : Décrire les cadres théoriques de conduite
de la recherche
5.2.1. Choisir une posture épistémologique
Notre situation de recherche sur LNB est dépendante de la
réalité du terrain, elle ne peut être abordée par des
méthodes expérimentales classiques. Par exemple, la
présence d’un groupe contrôle versus un groupe
expérimental n’est pas envisageable. En effet, si
l’utilisation de la plateforme est un avantage pour l’apprentissage,
nous ne pouvons pas concevoir un plan expérimental dans lequel certains
étudiants n’auraient pas accès à cette plateforme
sous prétexte qu’ils sont des
« étudiants-test ». Cependant en tant que chercheur,
il faut garantir la scientificité des résultats pour ces
situations de recherche largement répandues dans le contexte de la
recherche en éducation.
Pour aborder ces recherches, Avenier et Thomas (Avenier et Thomas, 2015) proposent d’utiliser le constructivisme pragmatique comme posture du
chercheur vis à vis du terrain. Cette posture se définit selon
cinq hypothèses principales :
- 1) « l’expérience humaine est
observable dans le système auquel elle appartient ». Dans
le cas de LNB, nous pouvons impliquer et observer les étudiants et les
enseignants.
- 2) « le monde observé concerne
l’humain dans un contexte donné ». Dans notre cas,
nous allons observer des étudiants et des enseignants dans une salle de
classe ou hors de la classe.
- 3) « Ce contexte peut varier ; les actions
et les décisions de l’humain peuvent évoluer ». Avec LNB, les enseignants peuvent choisir de modifier les ressources
fournies aux étudiants au cours de l’enseignement.
- 4) « La contribution prend la forme de
modèles génériques activables ». Dans notre
cas, notre recherche donnera lieu au raffinement d’un modèle
théorique de l’apprentissage (voir 5.2.3)
- 5) « La contribution scientifique et les
questions de recherche sont flexibles et vont évoluer en fonction du
terrain ».
Dans le constructivisme pragmatique, le but de la construction scientifique
est « d’élaborer des modèles intelligibles de
l’expérience humaine, offrant des repères adaptés et
viables », « La production de connaissances
scientifiques contribue à la génération ou au raffinement
de connaissances ». Dans notre cas, nous souhaitons contribuer
à l’amélioration d’un modèle
d’enseignement des sciences expérimentales selon une
pédagogie active outillée par LNB. Concernant la valeur et la
validité des résultats, nous nous positionnons sur les
propositions du constructivisme pragmatique (Avenier et Thomas, 2015). Ainsi, lors de notre évaluation, nous vérifierons que
l’outil est en adéquation avec les activités des enseignants
et des étudiants et nous mobiliserons à la fois des
méthodes de production de données qualitatives et quantitatives
pour cerner au mieux le terrain.
5.2.2. Choisir une méthode de recherche
Les hypothèses de construction de la connaissance scientifique et les
critères de valeur et validité étant choisis, il convient
de raffiner cette posture dans un cadre dédié à la
recherche en éducation outillée par des plateformes
numériques. Nous avons choisi le Design-Based Research et nous en
utiliserons les sept propriétés pour qualifier notre processus
d’évaluation lors de la description du terrain
d’évaluation.
5.2.3. Décrire le cadre théorique de l’apprentissage
Le propos de l’article n’étant pas les résultats de
cette évaluation nous décrivons brièvement les cadres
théoriques.
Le cadre théorique de l’apprentissage de LNB repose sur le
socio-constructivisme (Vygotsky, 1978).
Deux cadres théoriques sous-tendent nos recherches, d’une part le
cadre de la théorie des deux mondes (Tiberghien et al., 2009) et d’autre part la « pédagogie active » (Hannafin et al., 1999),
auquel nous associons le cadre du Student-Centered Learning (SCL) (Freeman et al., 2014).
Le cadre de la théorie des deux mondes explique l’apprentissage des
sciences expérimentales par la manipulation de relations entre le monde
des objets et événements et le monde des théories et
modèles ; il repose principalement sur deux sources
théoriques générales : une approche anthropologique
des savoirs et une approche épistémologique de l’enseignant
considérant la modélisation du monde physique comme une
activité centrale. Ces deux sources complètent l’approche
socio-constructiviste. L’approche par pédagogie active est
définie comme « a general design framework to describe
environments that support personnal sens making via problems contexts enriched
with technology tools, resources and scaffolding » (Hannafin et
al. 1999). Ces environnements ont les caractéristiques
suivantes : ils visent l’autonomie et l’indépendance de
l’apprenant en lui déléguant en partie la
responsabilité de son parcours d’apprentissage (Lathika, 2016).
En s’appuyant sur ces principes, (Land et Oliver, 2012) et (Lee et Hannafin, 2016) ont défini les caractéristiques de ces environnements avec
cinq critères :
- Critère 1 - Une situation-problème ou un
projet authentique et concret, au regard des apprentissages visés, sont
proposés aux élèves, à partir desquels plusieurs
solutions sont possibles (Hannafin et al., 1999) ;
- Critère 2 - Les apprenants doivent pouvoir
utiliser leurs connaissances initiales pour entrer dans la tâche ;
- Critère 3 - Les ressources peuvent être
conceptuelles (les notions en lien avec le problème posé),
métacognitives (comment expliciter, réfléchir, planifier ou
contrôler son travail), procédurales (comment utiliser les
fonctionnalités), et stratégiques (comment appréhender le
problème) ;
- Critère 4 - L’apprenant doit
également pouvoir faire des choix et être guidé dans ces
choix ;
- Critère 5 - L’apprenant doit pouvoir
évaluer ce qu’il sait et ce qu’il a besoin de savoir pour
atteindre le but visé (Hannafin et Hannafin, 2010).
Ces éléments de cadrage aideront à la construction des
questions de recherche et des indicateurs à mesurer sur le terrain lors
de l’utilisation de LNB. Ils contribueront au guidage de l’analyse
des données (p. ex., construction d’une grille de codage pour
l’analyse).
5.3. TEMPS 3 : Décrire l’outil numérique et le
terrain
Ce temps est consacré à la description de l’outil
numérique utilisé en contexte réel et sur le terrain
d’évaluation mobilisé.
5.3.1. Décrire l’outil numérique
En lien avec ces cadres théoriques, qui mettent la focale sur
l’apprenant, ses connaissances initiales, et sur l’utilisation de
démarches expérimentales pour apprendre, un ensemble de
fonctionnalités et d’outils sont proposés sur LNB. La
plateforme permet aux étudiants de produire et de partager des cahiers de
laboratoire ou des comptes rendus expérimentaux. LNB leur fournit des
outils de production et de communication, pour produire des écrits
d’une démarche expérimentale. Sur LNB, un même espace
de travail peut être partagé par une équipe
d’étudiants ; les documents écrits sont le
résultat d’un travail collaboratif. Les enseignants construisent
une mission (i.e. la situation d’enseignement) qui correspond à
l’espace de travail des étudiants. Il est structuré en un
ensemble de parties qui sont complétées en mobilisant quatre
outils de production, appelés labdocs (traitement de textes,
dessins, traitement de données, écriture de protocoles
expérimentaux) (critère 3). Au moment de configurer la mission,
l’enseignant choisit ce qu’il souhaite laisser à la charge de
l’étudiant et ce qu’il souhaite guider selon ses
priorités pédagogiques. LNB offre diverses possibilités de
guidage dans une mission. L’enseignant peut structurer le rapport en
choisissant le nombre de parties et les outils mobilisables par
l’étudiant, et en proposant des labdocs modifiables par les étudiants (ils
peuvent être vides et n’indiquer que le titre, ou bien
présenter un contenu). Sur LNB, il est possible d’expliciter les
objectifs d’apprentissage ou les compétences visées dans
différents espaces de la plateforme, de mettre à disposition des
étudiants des documents et des consignes de travail (critère 3).
Les enseignants peuvent suivre le travail des étudiants grâce
à un tableau de bord et faire des rétroactions sur les productions
des étudiants en les annotant, en fonction des réussites, des
erreurs et des difficultés identifiées (critères 2, 4 et
5).
5.3.2. Décrire le terrain et les utilisateurs
Le choix du DBR, comme méthode de conduite de la recherche, nous
incite à décrire notre terrain selon les sept
propriétés du DBR.
Plusieurs chercheurs sont mobilisés autour de la recherche sur LNB.
Ils sont eux-mêmes enseignants et utilisent la plateforme avec leurs
étudiants. Un d’entre eux est le concepteur de LNB et il participe
au développement. (Propriétés du DBR :
interactive).
Plusieurs types d’utilisateurs sont mobilisés pour
évaluer l’impact de LNB (Propriétés du DBR :
interactive) :
- Les concepteurs des missions. Il s’agit de responsables
d’unité d’enseignement (UE) qui impulsent l’utilisation
de LNB et conçoivent les missions qui seront utilisées par les
enseignants de l’équipe pédagogique. Nous étudions
leurs pratiques et motivations, leur niveau d’appropriation et de
satisfaction. Ils sont sollicités pour contribuer à
l’amélioration de la plateforme lors de séminaires. Ils font
progresser LNB et les questions de recherche (Propriétés du DBR : interactive).
- Les tuteurs. Il s’agit de l’ensemble des enseignants
appartenant aux équipes pédagogiques. Pour chaque enseignement,
c’est le concepteur qui leur propose d’utiliser LNB et qui fournit
la mission. Il arrive cependant que certains tuteurs adaptent les contenus selon
leurs objectifs pédagogiques personnels. Nous quantifions leurs pratiques
et motivations, leur niveau d’appropriation et de satisfaction.
- Les étudiants. Nous mesurons leur niveau de satisfaction
après l’utilisation de LNB et l’apport du Student Centered
Learning de LNB.
La plateforme est aujourd’hui déployée auprès de
51 unités d’enseignement (UE). Elle a été
utilisée par 157 enseignants et 4500 étudiants depuis 2017. Ce
contexte est riche et permet de recueillir un nombre important de
données. (Propriétés du DBR : pragmatique,
fondée sur le terrain, interactive).
LNB est utilisé plusieurs fois par les enseignants avec des
étudiants différents, dans des disciplines différentes.
Cette diffusion permet d’étudier la généricité
de LNB (Propriétés du DBR : contextuelle).
L’implication et les rôles de ces utilisateurs étant
très différents, nous avons besoin de mobiliser à la fois
des méthodes qualitatives pour comprendre finement les motivations et les
pratiques des concepteurs et des tuteurs et des méthodes plus
quantitatives pour analyser le niveau de satisfaction
(Propriétés du DBR : intégrative).
Le PEL doit mesurer l’impact de la plateforme au fil du temps. Les
données doivent donc être recueillies avec une même cohorte
d’utilisateurs, à différents moments de leur
utilisation : avant, pendant et après utilisation. Ces mesures sont
répétées pour chaque semestre. Nous devons pour cela
disposer d’outils de mesure qui seront réutilisés au cours
du temps. Les résultats obtenus à l’issue de ces phases de
recueil de données vont faire évoluer la plateforme, les questions
de recherche voire les outils de mesures eux-mêmes (Propriétés du DBR : itérative et flexible).
Notre terrain d’évaluation répond aux sept
propriétés du DBR. Nous devons maintenant poser les questions de
recherche et élaborer des indicateurs qui seront mesurés sur le
terrain.
5.4. TEMPS 4 : Poser les questions de recherche, choisir les
indicateurs
Dans ce temps nous élaborons les questions de recherche et identifions
les données nécessaires pour y répondre.
5.4.1. Poser les questions de recherche
Cinq questions de recherche sont construites à l’aide des cadres
théoriques :
- Quels sont les facteurs qui déterminent l’acceptation
de la plateforme LNB par les enseignants ?
- Quels supports LNB apporte-elle aux enseignants et apprenants
engagés dans des enseignements
« centrées-étudiant » ?
- Quels sont les types de tâches que les enseignants donnent
à réaliser aux étudiants ?
- Quelle forme prend la collaboration entre étudiants pour
l’écriture de documents scientifiques sur LNB ?
- Quelles modifications la plateforme LNB induit-elle dans le
travail des enseignants et des étudiants ?
5.4.2. Choisir les indicateurs
A partir de ces questions de recherche et des critères définis
dans ces cadres (comme la présence d’une activité de
résolution de problème déléguée aux
élèves), nous construisons les indicateurs à mesurer sur le
terrain. L’évolution de ces différents indicateurs nous
permettra de répondre aux questions de recherche sur les changements dans
les activités.
Nous avons tiré de la littérature plusieurs indicateurs pour
répondre aux autres objectifs :
« enseignement », « technique » et
« institutionnel ». Des indicateurs liés à
l’utilisation, l’utilisabilité et la satisfaction ont
été choisis et adaptés à notre contexte. Pour
l’utilisabilité, nous utilisons l’échelle SUS (Brooke, 1996) ;
pour la mesure de satisfaction, nous mobilisons des travaux en sciences de
gestion (Ray, 2001).
Les indicateurs d’utilisation de la plateforme sont élaborés
par les porteurs du projet pour suivre le projet et tester la plateforme.
Le tableau 1 présente des indicateurs utilisés pour
évaluer LNB. La troisième colonne du tableau donne des exemples de
données mesurées.
Tableau 1 • Indicateurs et
finalités
Indicateurs |
Finalité |
Exemples de mesures |
Utilisation de la plateforme |
Mesurer l’utilisation de la plateforme et sa diffusion dans
l’institution. |
Nombre d’utilisateurs par an, nombre d’unités
d’enseignement, etc. |
Satisfaction |
Mesurer la satisfaction perçue par les étudiants et les
enseignants. |
Note de satisfaction globale, note de satisfaction sur les ressources
fournies, etc. |
Utilisabilité |
Mesurer si LNB est utilisable par les enseignants et les étudiants.
Connaitre les difficultés dans l’utilisation. |
Echelle de Brooke |
Activités |
Mesurer les actions réalisées avec LNB par les enseignants et
les étudiants. |
Liste des actions réalisées par les enseignants, les
étudiants |
Indicateurs du SCL (références) |
Mesurer si les fonctionnalités de type SCL sont perçues par
les étudiants et les enseignants. |
Fondé sur l’article de Freeman et al. , 2014 |
5.4.3. Choisir les types de données et les méthodes de
production des données
Le cadre épistémologique et la méthode de conduite de la
recherche que nous avons choisis nous autorisent à utiliser plusieurs
types de méthodes de production de mesures pour investiguer le terrain
(Propriété du DBR : intégrative). Cette section
présente les différentes méthodes retenues en fonction du
contexte de notre terrain d’évaluation. Nous utilisons des
approches qualitatives pour comprendre et des méthodes quantitatives pour
dénombrer.
- Les entretiens semi-directifs visent à recueillir le
plus précisément possible l’avis des responsables d’UE
impliqués dans le projet. Ils ont été
réalisés avant utilisation de la plateforme afin
d’identifier leurs pratiques et leurs motivations à utiliser LNB.
En fin de projet, ils sont de nouveau interrogés sur ces mêmes
indicateurs. Un guide d’entretien a été construit pour
conduire ces entretiens. Les données recueillies sont de type qualitatif
et déclaratif et elles font l’objet d’une analyse
thématique.
- Des carnets de bord (Bernhaupt et al., 2008) permettent de suivre les besoins d’aide des enseignants. Ils sont remplis
par l’équipe conceptrice de LNB tout au long de
l’utilisation. Il s’agit de données qualitatives
déclaratives.
- Par les traces numériques des enseignants et des
étudiants, nous pouvons explorer l’utilisation réelle de LNB
et l’évolution de l’utilisation. Ce sont des mesures de type
factuel. Pour les enseignants, nous traçons leurs activités sur
les missions, sur les productions des étudiants et sur la gestion des
étudiants. Pour les étudiants, nous recueillons leurs
activités sur les rapports, les ressources, et les échanges.
- L’observation des « missions ».
Il s’agit de données factuelles produites par l’enseignant
sans intervention du chercheur. L’organisation et la modification des
missions proposées par les enseignants nous renseignent sur le type de
pédagogie mobilisée. Ainsi, pour chaque situation
pédagogique proposée, nous regardons la nature du travail
demandé aux étudiants et sa place dans le processus
pédagogique : préparer le TP, refaire le travail, diffuser
ses résultats, etc. À la fin de la seconde année, ces
missions sont de nouveau analysées afin d’étudier les
transformations pédagogiques.
- Nous utilisons également des débriefings pour
identifier rapidement des points de blocage dans l’utilisation de LNB.
- Un questionnaire-baromètre (QB) est un questionnaire
soumis de façon répétée et à intervalles
réguliers à une cohorte d’utilisateurs. Dans le cas de LNB,
il y a trois vagues de passation : avant l’utilisation et à la
fin de chaque année d’enseignement. Ces questionnaires sont
administrés auprès des enseignants concepteurs et des enseignants
tuteurs, afin de mesurer l’évolution de leurs activités et
de leur satisfaction. Les mesures recueillies sont de type
déclaratif ; elles font l’objet de traitement quantitatif.
- Pour les étudiants, le questionnaire (QS) n’est pas « barométré », car d’un
semestre à l’autre, ce ne sont pas les mêmes cohortes qui
sont interrogées.
5.4.4. Identifier les données existantes
Les données existantes sont les supports de cours produits par les
enseignants. Ils sont recueillis lors des entretiens.
5.4.5. Construire les outils de mesures
Nous présentons à titre d’exemple
l’élaboration du questionnaire baromètre qui contient des
indicateurs théoriques (SCL) et des indicateurs de terrain
(Satisfaction). Les données produites sont quantitatives et
déclaratives. Pour les indicateurs du SCL, nous utilisons les
caractéristiques fournies par les auteurs (Freeman et al, 2014) et nous les déclinons en questions. Le tableau 2 présente un
exemple de ce travail. Pour les réponses, nous utilisons une
échelle d’accord de Likert à quatre degrés (Tout
à fait, Plutôt, Plutôt pas, Pas du tout
d’accord) et la modalité « non
réponse ».
Tableau 2 • Trois Indicateurs du SCL
et questions associées
Trois indicateurs du SCL |
Questions associées |
Les modalités de résolution du problème
déléguées aux étudiants |
« Pour cette formation, je laisse les étudiants choisir
librement leur méthode pour résoudre des problèmes
complexes » |
Les étudiants sont autonomes dans leur travail |
« LNB aide les étudiants à organiser leur
travail »
« LNB aide les étudiants à structurer leurs
rapports » |
Une organisation temporelle flexible du travail (adaptation au rythme de
l’élève, possibilité de travail à distance,
...) |
« Pour cette formation, je laisse la liberté aux
étudiants d’organiser leur temps pendant la
séance »
« Pour cette formation, je demande aux étudiants du travail
en dehors des séances »
« LNB facilite le travail des étudiants entre les
séances » |
La mesure de la satisfaction s’effectue par une question qui mesure la
satisfaction globale et par plusieurs questions qui mesurent la satisfaction sur
des éléments plus fins (Ray, 2001), (Parahoo et al., 2016).
Ainsi, dans le cas de LNB, nous avons mesuré la satisfaction globale sur
une échelle allant de 0 à 10. Nous avons posé des questions
de satisfaction sur les fonctionnalités de LNB, sur
l’écriture des rapports avec LNB, sur l’utilisation de LNB
avec les enseignants, pour le travail à la maison, pour obtenir des
retours de la part des enseignants, pour travailler avec les étudiants du
groupe, pour partager des ressources. Ainsi, avec ces sept questions, nous
pouvons étudier l’impact de ces éléments sur la
satisfaction globale. Concrètement, nous saurons si le partage des
ressources entre les étudiants (une des fonctionnalités de LNB) a
un impact fort ou non sur la satisfaction globale.
5.4.6. Schématiser le processus d’évaluation
La représentation graphique du processus d’évaluation
(Figure 3) offre une vision globale et une synthèse de ce travail de
terrain. Au cours de ce projet, nous avons utilisé plusieurs
représentations graphiques en fonction des canaux de médiation
(institution, publications, web, etc.).
Figure 3 • Schématisation du
PEL
6. Déroulement du PEL dans le projet LNB et bilan
Dans cette section, nous présentons le
déroulement sur le terrain et dressons le bilan de cette étude.
6.1. Déroulement du PEL dans le projet LNB
Le processus d’évaluation longitudinale a été
déployé sur une période de trois ans, de 2017 à
2019. Au départ du projet, vingt-trois unités d’enseignement
étaient impliquées. Le PEL a débuté par la passation
des entretiens avec les responsables d’UE avant qu’ils
élaborent les situations pédagogiques proposées à
leurs étudiants sur la plateforme. À partir de septembre 2017, les
questionnaires baromètres ont été soumis à
l’ensemble des enseignants-utilisateurs et ce, jusqu’à
décembre 2019. Les entretiens de fin d’utilisation avec les
responsables d’UE ont été conduits de manière
échelonnée entre les mois de mai 2019 et le mois de février
2020. Le recueil des traces numériques et des données issues des
débriefings s’est opéré de façon continue tout
au long du processus. Plusieurs publications de recherche ont été
réalisées sur la base de ces données (Planche et al., 2019), (Planche et al., 2021), (Hoffmann et al., 2019), (Hoffmann et al., 2021).
6.2. Bilan sur les outils des mesures
Les entretiens ont principalement servi l’objectif
« recherche » du PEL et, plus occasionnellement,
l’objectif « technique » et
« enseignement ». Nous avons réalisé 22
entretiens auprès des enseignants-concepteurs avant l’utilisation
de LNB et 19 après (parmi eux 14 ont été rencontrés
avant et après l’utilisation de LNB). Nous en avons conduits
auprès de 5 enseignants-tuteurs impliqués dans la conception, afin
d’avoir un regard complémentaire. Certains concepteurs n’ont
pas souhaité continuer ; leur choix d’abandonner nous a
conduits à les interroger à nouveau pour comprendre cette
décision. L’analyse thématique des entretiens a
éclairé le choix, les motivations et les changements des pratiques
des responsables d’UE. La difficulté inhérente à ces
données a été le recueil et l’analyse qui est par
nature chronophage.
Les questionnaires baromètres ont essentiellement servi les objectifs
« enseignement » et « recherche » du
PEL. En janvier 2020, sur les trois vagues, 159 questionnaires avaient
été complétés par 66 enseignants-utilisateurs (soit
42% de l’ensemble des enseignants-utilisateurs). Après nettoyage de
la base et suppression des doublons, 151 questionnaires se sont
avérés exploitables. Parmi les 66 enseignants ayant répondu
au moins une fois au questionnaire-baromètre, 32 ont répondu aux
deux premières vagues (QB0 et QB1) – soit un taux de réponse
de 48,5% – et, parmi eux, 26 se sont prêtés à
l’exercice pour les trois vagues de passation (QB0, QB1 et QB2) –
soit un taux de réponse de 39,4%. Bien que faible sur la totalité
du PEL, les réponses à ces questions vague par vague montrent
comment s’est passée l’évolution des utilisations de
LNB. Si ces données chiffrées sont des indicateurs sur
l’évolution de l’utilisation de LNB, il convient de les
étayer par des données qualitatives comme les entretiens ou des
données existantes produites par les enseignants, comme les missions. Le
questionnaire baromètre qui nous apparaissait comme un outil pertinent
pour mesurer de manière quantitative les évolutions s’est
avéré lourd et peu satisfaisant. Les trois vagues de
questionnaires ont lassé les enseignants et le taux de participation
n’a jamais été très élevé et a
diminué à chacune des vagues. En outre, lors de l’analyse
des réponses aux questionnaires, des questions nous sont apparues mal
formulées (p. ex., « J’ai travaillé de
façon collaborative », le terme collaboratif a sans doute
été compris différemment selon les unités
d’enseignement.
L’étude des missions sert principalement l’objectif
« recherche » du PEL. 144 missions
implémentées sur LNB ont été analysées dans
le cadre du PEL. Ces missions renseignent sur le degré de liberté
laissé aux étudiants dans la conduite de leur travail par les
enseignants. La structuration de ces missions et leur évolution
renseignent de manière factuelle sur l’activité de
l’enseignant. Une grille de codage des missions a été
élaborée sur la base des critères du SCL. L’analyse
de ces données a été enrichie par l’analyse
thématique des entretiens.
Initialement, des carnets de bord avaient été
élaborés pour suivre les interactions entre les enseignants et
l’équipe conceptrice de LNB tout au long du projet. Ils devaient
être complétés par l’ensemble de l’équipe
conceptrice, à mesure que les demandes d’aide se
présentaient. Le recueil a finalement été abandonné,
en raison notamment de l’aspect chronophage et de la rigueur presque
quotidienne exigée par la tâche, compte-tenu des autres charges
pesant déjà sur les membres de l’équipe.
Des données de terrain moins formalisées sur les retours des
enseignants-utilisateurs ont malgré tout pu être conservées
par les chercheurs qui ont consigné les demandes et retours que les
enseignants ont fait sur le fonctionnement de LNB. En outre, des
débriefings ou d’autres échanges informels avec les
enseignants et les responsables d’UE ont permis de recueillir des
éléments pour comprendre leurs difficultés à
concevoir des missions sur LNB et à utiliser LNB. L’ensemble de ces
données a essentiellement servi les objectifs
« technique » et « enseignement » du
processus d’évaluation. Ces données non formalisées
par un outil de mesure ne peuvent être exploitées dans un objectif
de recherche.
Nous avons utilisé les traces d’activités des enseignants
sur LNB en ciblant trois objectifs du PEL. Pour l’objectif
« recherche », les traces permettent d’identifier les
manières d’utiliser les fonctionnalités de LNB, ou de
construire des profils d’utilisateurs de la plateforme. Pour les objectifs
« enseignement » et « technique », les
traces ont également été utilisées dans une
visée de learning analytics. Ce travail a notamment permis la
conception et l’implémentation de tableaux de bord sur
l’interface enseignant de LNB. Pour L’objectif
« institution », nous avons pu faire un retour aux
financeurs sur l’utilisation effective de la plateforme par les
enseignants et les étudiants concernés. L’utilisation de la
plateforme dans l’enseignement a été croissant de 2017
à 2019. Dans cette période, le nombre d’enseignants a
été multiplié par deux. Près de 4500
étudiants ont utilisé LNB. Plus de 8000 rapports
d’étudiants ont été produits sur ces 3 années.
Après trois années d’évaluation, 1 345
questionnaires étudiants ont été recueillis, soit un taux
de réponse de 26,8 % environ. Ce taux de réponse est conforme
à ce qui peut être attendu dans la passation de ce type de
questionnaire. Il conviendra cependant de vérifier que la
répartition du taux de réponse soit uniforme entre les UE. Ces
données fournissent des indicateurs pour la recherche (p. ex., perception
d’un enseignement centré sur l’étudiant), pour
l’enseignement (p. ex., utilisation et satisfaction) et pour
l’institution (p. ex., satisfaction). La passation en ligne du
questionnaire à la fin du cours s’est avérée peu
efficace (peu de participation de la part des étudiants), ce qui nous a
contraints à adopter une version papier du questionnaire. La saisie a
été réalisée à l’aide d’un
scanneur des questionnaires remplis. Mettre en place ce type d‘outil
demande d’anticiper le recueil technique des données et de
créer des alternatives en cas d’un faible taux de réponses
6.3. Bilan global
Le PEL et les outils fournis ont permis de répondre aux
différents objectifs d’évaluation fixés au
début du projet. Pour l’IDEX de l’université, le
projet LNB a été le seul à fournir aux financeurs des
données précises sur son utilisation et sur le degré de
satisfaction des utilisateurs. En ce qui concerne l’enseignement et
l’évolution technique, la formalisation d’entretiens, de
débriefings et de séminaires a instauré un niveau de
confiance et de collaboration entre les enseignants, l’équipe
projet et les développeurs. Du coté recherche, les cadres
théoriques mobilisés ont permis de travailler sur des indicateurs
mesurés au fil du temps avec des outils adéquats (p. ex., guide
d’entretiens, questionnaires). Le travail de formalisation des outils de
mesures a produit des informations pour répondre aux questions de
recherche initiales. En outre, le nombre important de données a permis
d’élargir le champ des questions de recherche. Par exemple, des
questions d’une granularité plus fine autour du travail
collaboratif ont émergé.
De plus, le PEL a nécessité des aménagements au cours
des passations. Les échanges par mail entre les chercheurs et les
enseignants ont constitué des données précieuses pour faire
évoluer LNB. De même, les débriefings réguliers avec
les enseignants ont été importants pour, d’une part,
contribuer aux améliorations de LNB et, d’autre part, maintenir la
relation de collaboration autour de ce projet.
Aussi, le grand nombre de données produites et leur diversité
peuvent être un écueil car il est parfois difficile
d’analyser des corpus si divers. A ce sujet, une des difficultés
rencontrées a été l’analyse des données
demandant une compétence en analyse qualitative et quantitative. Bien que
ces méthodes d’analyse soient maitrisées par les deux
méthodologues, les autres chercheurs du projet ont parfois eu du mal
à adhérer aux résultats produits. Ils ont besoin
d‘analyser eux-mêmes les données pour s’approprier les
résultats.
Enfin, travailler de manière longitudinale implique de garder un moyen
de suivre les réponses d’une personne donnée.
L’anonymisation est donc difficile. Il est nécessaire
d’anticiper les procédures d’anonymisation des données
et de mise en conformité avec la loi RGPD et les avis du comité
d’éthique qui peuvent s’avérer longues. Dans notre
cas, il a fallu un an de travail et d’aller-retour avant
d’élaborer un document recevable par le responsable de la
protection des données de l’Université.
7. Discussion et conclusion
Dans cette section, nous reviendrons d’abord
sur les trois questions de recherche qui conduisent cet article. Puis, comme ce
travail a été l’occasion de mettre en pratique les
propriétés du Design-Based Research, nous
réinterrogerons cette méthode quant à la conduite
d’évaluation de plateformes en EIAH dans des contextes
institutionnels.
Pour répondre à la 1ère question
« Quelles sont les particularités de l’évaluation
des EIAH dans un contexte de recherche ? », nous avons
proposé un cadre scientifique qui repose sur les travaux des sciences de
l’artificiel, de manière à construire des connaissances
scientifiques et des outils supports à cette connaissance. Nous avons
aussi proposé une posture épistémologique, le
constructivisme pragmatique, qui prend en compte les spécificités
des EIAH évalués dans le cadre de projets de recherche
financés et utilisés en contexte réel. Nous avons
également choisi d’utiliser la méthode DBR en nous appuyant
sur les sept propriétés posées par ses auteurs.
Pour répondre à la 2e question « Quelles
sont les méthodes de production de données
adéquates ? », nous avons tout d’abord
éclairci notre position sur des termes parfois mal mobilisés
(qualitatif versus quantitatif, factuelle versus déclarative, etc.). Nous avons ensuite listé et décrit un
ensemble de méthodes de production des données envisageables en
fonction des objectifs visés dans le cadre du projet LNB. Nous avons
explicité en quoi le choix des méthodes de production ou de
recueil des données est en lien avec les objectifs, les questions de
recherche, la temporalité du projet, les indicateurs.
Pour répondre à la 3e question « Comment
construire un tel processus afin de produire des données pertinentes pour
l’ensemble des acteurs du projet ? », nous avons
proposé un modèle de processus découpé en six temps,
eux–mêmes subdivisés en tâches. Ce modèle de
processus a été appliqué au projet LNB conduit en contexte
réel durant trois années.
Pour les plateformes développées dans le cadre des recherches
en EIAH, nous avons proposé une structuration et une manière de
conduire ces évaluations sur le long terme. La documentation de ces
étapes et de leurs itérations (voir figure 2) peut être
réutilisée et adaptée à d’autres contextes.
Notre travail a aussi été l’occasion de mettre à
l’épreuve les sept propriétés du DBR.
C’est sur ce point que nous souhaitons conclure, ouvrir le
débat et proposer des réflexions sur les méthodes pour les
recherches s’appuyant sur des plateformes numériques. Notre
méthode a suivi les sept propriétés du DBR, nous souhaitons
indiquer ici en quoi elles ont pu être suivies ou non.
Les propriétés « Pragmatique » et
« Fondée sur le terrain » ont été
appliquées sans difficulté, notre projet est effectivement
réalisé en grandeur réelle avec des enseignants et des
étudiants sur une durée de trois ans. Il en est de même pour
la propriété « Intégrative » sur la
mise en œuvre de plusieurs méthodes de production des
données. Nous avons, en effet, utilisé au total sept
méthodes de production de données, mesurant à la fois des
données qualitatives et quantitatives et des données factuelles et
déclaratives. Ce travail de construction d’outils de mesures et de
méthodes de production de données est décrit dans une
littérature abondante et de nombreux sites web répertorient des
méthodes de production des données. Cependant, vu
l’importance prise par les débriefings dans le projet LNB, une
question est : comment tracer l’implicite, l’informel dans ce
type de projet ?
Les propriétés « Itérative » de
l’outil et « Flexible » de la question de recherche
ont été tenues sans difficulté. La plateforme a
été améliorée. De même, les questions de
recherche ont évolué au fil du temps. La réflexion large
sur les indicateurs au départ du projet et le nombre important de
données produites permettent aujourd’hui de répondre
à d’autres questions de recherche de grain plus fin. Si les
évolutions techniques de la plateforme sont tracées sur un
dispositif numérique (p. ex., Github) ce n’est pas le cas de
l’évolution des questions de recherche. Ainsi, nous pouvons nous
interroger sur l’intérêt d’un outil destiné
à suivre l’évolution des questions de recherche dans le
cadre du DBR. Quelles fonctionnalités cet outil devrait-il offrir ?
Comment devrait-il être structuré ?
Pour la propriété 4 « Interactive », nous
étions dans un contexte favorable, car les enseignants chercheurs du
projet sont eux-mêmes impliqués dans le développement
informatique de LNB et dans la recherche didactique en sciences
expérimentales. De plus, des méthodologues associés au
projet ont apporté leur expertise dans la production des données.
Sans ce contexte favorable, la propriété
« interactive » du DBR aurait été difficile
à mettre en place, car il s’agit de travailler de manière
collaborative avec plusieurs acteurs ayant des intérêts et des
contraintes parfois divergents. Pour le DBR, ces acteurs doivent travailler
ensemble à l’élaboration de la recherche, des plateformes et
des outils d’évaluation. Les domaines de compétences requis
sont donc très différents. Dans ces conditions, faut-il
mobiliser un outillage (Mandran, 2018) ?
Ou bien avoir recours à un médiateur de type « Broker » (Sanchez et Monod-Ansaldi, 2015) pour conduire ces recherches ancrées dans le terrain ?
La propriété « Contextuelle » concerne la
nécessité de faire le lien entre les résultats et le
contexte dans lequel les données et les résultats ont
été produits. Plusieurs contextes doivent être
étudiés ; la multiplicité de contextes permet de
garantir la généricité des résultats et
d’augmenter leur niveau de validité. Dans notre cas, nous avons pu
observer l’utilisation de la plateforme dans plusieurs contextes
d’enseignement. Les résultats que nous avons produits sont pour
l’instant au niveau global ou par unité d’enseignement en
fonction des questions de recherche. Cette propriété pourra
être validée par exemple par une étude comparative entre
deux enseignements. Mais en quoi et comment pouvons-nous conclure que les
résultats sont génériques ? Cette question ne peut
être résolue qu’en se posant la question de la posture
épistémologique adoptée pour construire une connaissance
scientifique. C’est pourquoi notre ancrage dans le constructivisme
pragmatique nous apparaît comme un point essentiel avant même le
choix d’une méthode de conduite de la recherche comme le Design-Based Research.
À
propos des auteurs
Nadine Mandran est Ingénieure de recherche au
Laboratoire d’Informatique de Grenoble. Ses recherches portent sur des
questions de méthode de conduite de la recherche en informatique
centrée humain. Elle a conçu la méthode THEDRE (Traceable
Human Experiment design Research). Cette méthode repose sur 20 ans
d’expérience dans le support méthodologique aux doctorants
de différentes disciplines. THEDRE offre des outils pour guider les
doctorants pendant leur thèse et pour faciliter la collaboration avec les
encadrants. Nadine Mandran enseigne et diffuse cette méthode dans
différents laboratoires (LIG, LIUM, LIP6) et dans le cadre des
écoles doctorales de Grenoble et de Lille.
Adresse : Université Grenoble
Alpes, LIG-PIMLIG, Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9
Courriel : nadine.mandran@univ-grenoble-alpes.fr
Maelle Planche est ingénieure en production,
traitement et analyse de données à Grenoble INP, rattachée
à l’équipe MeTAH du Laboratoire Informatique de Grenoble
(LIG) et au Centre des Nouvelles Pédagogies (CNP). Sociologue et
ethnologue de formation, elle travaille depuis plusieurs années sur la
conception et la mise en œuvre des protocoles de collecte et de traitements
qualitatifs et quantitatifs de données pour divers projets de
recherche : projet CHANGE sur les sorties des conduites addictives
(INSERM), projet SAGE sur l’agitation chez l’enfant (CNRS), projet
PANJO sur l’identification des troubles précoces de la relation
parents-enfants (INPES). Depuis 2017, elle a rejoint l’équipe
LabNbook avec laquelle elle travaille à la mise en œuvre et au suivi
du protocole d’évaluation longitudinale (PEL) élaboré
en vue d’évaluer les usages et l’impact de la plateforme
LabNbook sur les pratiques pédagogiques des enseignants-utilisateurs.
Adresse : Université Grenoble
Alpes, LIG-MeTAH, Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9
Courriel : maelle.planche@grenoble-inp.fr
Patricia Marzin-Janvier est Professeure à
l’Université de Bretagne Occidentale (UBO) et à
l’INSPE de Bretagne, Directrice du Centre de Recherche sur
l’Education les Apprentissages et la didactique (CREAD-UBO). Les
recherches qu’elle mène sont centrées sur les
mécanismes de transmission et d’appropriation de savoirs en
sciences, principalement en biologie. Un autre aspect de son travail concerne la
conception et l’évaluation d’outils technologiques pour
l’apprentissage. Ses problématiques actuelles portent sur
l’analyse de l’activité de conception expérimentale
(conception de protocoles, anticipation des résultats, élaboration
et structuration d’un plan expérimental) par les
élèves et l’étayage de la démarche
d’investigation expérimentale par des environnements informatiques.
Elle est également impliquée dans un projet européen avec
l’INRA (Tree bodyguards) et porteuse du projet EDU Oak Bodyguards
labellisé par la MSHB.
Adresse : Univ Brest, Univ Rennes, CREAD,
F-29200 Brest, France
Courriel : patricia.marzin-janvier@inspe-bretagne.fr
Toile : https://www.cread-bretagne.fr/author/patricia-marzin-janvier/
Mathieu Vermeulen est enseignant-chercheur
à l’IMT Lille Douai. Associé à l'équipe
HIDE du CERI SN, ses recherches sont centrées sur les approches
meta-design pour les jeux sérieux, qui visent à impliquer
fortement les enseignants du supérieur dans les étapes de
conception et d'usage de ces EIAH, sur l’analyse de traces
d’apprentissage des étudiants par les enseignants (Learning
Analytics) ou encore sur l’évaluation des compétences
des étudiants via l’usage d'EIAH. Depuis mars 2019, il coordonne le
projet i-Site ULNE APACHES (labellisé FIPE 2018) qui a pour objectif
de proposer un modèle de méthode pour mettre en place une
pédagogie par projet centrée humain tout au long des cursus de
l'enseignement supérieur.
Adresse : IMT Lille Douai, 941 rue
Charles Bourseul, 59508 Douai Cedex
Courriel : mathieu.vermeulen@imt-lille-douai.fr
Aous Karoui est docteur en informatique. Ses travaux de
recherche s'inscrivent dans le champ des plateformes numériques pour
l'Apprentissage Humain et plus particulièrement des jeux éducatifs
et des outils auteur. Durant sa thèse de doctorat, il a travaillé
sur des solutions pour aider les enseignants sans compétence en
programmation et sans expérience en scénarisation ludique à
concevoir et créer leurs propres jeux éducatifs, en créant
l’outil auteur JEM Inventor, fondé sur une approche de conception
gigogne. Plus récemment, il s’intéresse aux
problématiques de tableaux de bord de Learning Analytics,
après avoir rejoint l’équipe MeTAH du Laboratoire
Informatique de Grenoble. Ainsi, il a contribué au projet LabNBook, sur
la partie conception de tableau de bord d’analyse de traces
d’apprenants, et au projet ADDICT, sur la partie visualisation de traces
d’apprenants en temps réel.
Adresse : IUT2 Grenoble, 2 Place Doyen
Gosse, 38031 Grenoble Cedex
Courriel : aous.karoui@univ-grenoble-alpes.fr
Toile : http://aous-karoui.com
Cédric d’Ham est maître de
conférences à l’université Grenoble Alpes dans le
domaine des Environnements Informatiques pour l’Apprentissage Humain. Ses
travaux explorent la transposition des démarches expérimentales et
scientifiques dans l’enseignement et, en particulier, la tâche de
conception d’expérimentation par les apprenants : conditions
de réussite, connaissances mises en jeu et apprentissages
réalisés. Il a conçu et développé plusieurs
environnements informatiques avec divers étayages, dont la
finalité est que les apprenants conçoivent leurs propres
expérimentations : copex-chimie.imag.fr, titrab.imag.fr, labnbook.fr .
Adresse : Université Grenoble
Alpes, LIG-MeTAH, Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9
Courriel : cedric.dham@univ-grenoble-alpes.fr
Toile : https://labnbook.fr/page-perso-cedric-d-ham/
Isabelle Girault est maître de conférence en
didactique des sciences à l’université Grenoble Alpes, dans
le domaine des EIAH. Dans le cadre de l'apprentissage des sciences
expérimentales par la démarche d'investigation, ses travaux de
recherche sont centrés sur la conception expérimentale. Ses
études impliquent d'une part la modélisation de la tâche de
conception expérimentale en sciences et d'autre part la conception et
l'évaluation d'environnements informatiques pour l'apprentissage humain
(EIAH) pour étayer cette conception expérimentale.
Adresse : Université Grenoble
Alpes, LIG-MeTAH, Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9
Courriel : isabelle.girault@univ-grenoble-alpes.fr
Toile : https://cv.archives-ouvertes.fr/isabelle-girault
Claire Wajeman est maître de conférence en
Didactique des Sciences Expérimentales à l’Université
Grenoble-Alpes et effectue sa recherche dans l'équipe MeTAH
(Modèles et Technologies pour l'Apprentissage Humain) du Laboratoire
d'Informatique de Grenoble. Elle s'intéresse à l'étayage
des tâches de conception d'expériences par les apprenants avec le
support d'un environnement informatique.
Adresse : Université Grenoble
Alpes, LIG-MeTAH, Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9
Courriel : claire.wajeman@univ-grenoble-alpes.fr
Christian Hoffmann est maître de conférences
à l’Université Grenoble-Alpes. Depuis 2018, il effectue ses
recherches dans l'équipe MeTAH (Modèles et Technologies pour
l'Apprentissage Humain) du Laboratoire d'Informatique de Grenoble. Physicien de
formation, ses travaux de recherche actuels concernent les processus
d’apprentissage et d’enseignement des sciences avec des
environnements informatiques. Il s’intéresse notamment aux
mécanismes d’appropriation de plateformes numériques par
leurs utilisateurs et aux modalités d’apprentissage collaboratives
entre apprenants.
Adresse : Université Grenoble
Alpes, LIG-MeTAH, Bâtiment IMAG - CS 40700 - 38058 GRENOBLE CEDEX 9
Courriel : christian.hoffmann@univ-grenoble-alpes.fr
RÉFÉRENCES
Avenier, M.-J. (2019). Les
Sciences de l’artificiel : une conceptualisation
révolutionnaire de sciences fondamentales à parachever. Projectics / Proyéctica / Projectique, 24(3), 43-56.
Disponible sur internet.
Avenier, M.-J. et Thomas, C. (2015). Finding one’s
way around various methodological guidelines for doing rigorous case studies: A
comparison of four epistemological frameworks. Systèmes
d’information et Management, 20(1), 61–98.
Balacheff, N. et Lund, K. (2013). Multidisciplinarity vs.
Multivocality, the case of "learning analytics". Dans Proceedings of the
Third International Conference on Learning Analytics and Knowledge (LAK'13) (p. 5–13). Disponible sur internet.
Bernhaupt, R., Obrist, M., Weiss, A., Beck, E. et
Tscheligi, M. (2008). Trends in the Living Room and Beyond: Results from
Ethnographic Studies Using Creative and Playful Probing. ACM Computers in
Entertainment, 6(1). Disponible sur internet.
Brooke, J. (1996). SUS – A quick and
dirty usability scale. Dans Usability Evaluation in Industry (p. 189-194).
Taylor & Francis.
The Design-Based Research Collective (2003). Design-based
research: An emerging paradigm for educational inquiry. Educational
Researcher, 32(1), 5–8.
Disponible sur internet.
Collins, A. (1992). Toward a Design Science of Education.
Dans E. Scanlon et T. O’Shea (dir.), New Directions in Educational
Technology (pp. 15–22). Springer Berlin Heidelberg.
Disponible sur internet.
Creswell, J. W. (2013). Research design: Qualitative,
quantitative, and mixed methods approaches. Sage publications.
De Vries, E. et Baillé, J. (2006).
Apprentissage : Référents théoriques pour les EIAH.
Dans M. Grandbastien et J.-M. Labat (dir.), Environnements Informatiques pour
l’apprentissage humain (p. 27–45). Hermes Science.
Donnelly, D. F., Linn, M. C. et Ludvigsen, S. (2014).
Impacts and characteristics of computer-based science inquiry learning
environments for precollege students. Review of Educational Research, 84(4), 572–608.
Freeman, S., Eddy, S. L., McDonough, M., Smith, M. K.,
Okoroafor, N., Jordt, H. et Wenderoth, M. P. (2014). Active learning increases
student performance in science, engineering, and mathematics. Dans Proceedings of the National Academy of Sciences, 111(23),
8410–8415.
Granić, A. et Ćukušić, M. (2011).
Usability testing and expert inspections complemented by educational evaluation:
A case study of an e-learning platform. Journal of Educational Technology
& Society, 14(2), 107–123.
Hannafin, M. J. et Hannafin, K. M. (2010). Cognition and
Student-Centered, Web-Based Learning: Issues and Implications for Research and
Theory. Dans J. M. Spector, D. Ifenthaler, P. Isaias, Kinshuk et D. Sampson
(dir.), Learning and Instruction in the Digital Age (p. 11–23).
Springer US.
Hannafin, M., Land, S. et Oliver, K. (1999). Open
Learning Environments: Foundations, methods, and models. Dans C. Reigeluth
(dir.), Instructional-Design Theories and Models (Vol. 2, p. 115-140).
Lawrence Erlbaum.
Herrington, J., McKenney, S., Reeves, T. et Oliver, R.
(2007). Design-based research and doctoral students: Guidelines for preparing a
dissertation proposal. EdMedia+ Innovate Learning, 4089–4097.
Hoffmann, C., Girault, I., Kahane, C., d’Ham, C. et
Planche, M. (2019). Utilisation d’une plateforme numérique dans un
dispositif d’apprentissage par problèmes (APP). QPES, Brest,
France.
Hoffmann, C., Girault, I., Kahane, C., d’Ham, C. et
Planche, M. (2021). Introduction d’une plateforme numérique dans un
dispositif APP – quelles adaptations, quelle influence sur la
coopération/collaboration étudiante ? Les Annales de QPES, 1(3), Article 3. Disponible sur internet.
Land, S. et Oliver, K. (2012). Open Learning Environments. Dans N. M.
Seel (dir.), Encyclopedia of the Sciences of Learning (p. 855).
Disponible sur internet.
Lathika, K. (2016). Student centered learning. International Journal of Current Research and modern education,
677–680.
Lee, E. et Hannafin, M. J. (2016). A design framework for
enhancing engagement in student-centered learning: Own it, learn it, and share
it. Educational Technology Research and Development, 64(4),
707–734.
Lhoste, Y. et Orange, C. (2015). Quels cadres
théoriques et méthodologiques pour quelles recherches en
didactique des sciences et des technologies ? RDST. Recherches en
didactique des sciences et des technologies, 11, 9–24.
Mandran, N. (2018). Traceable human experiment design
research: Theoretical model and practical guide (ISTE, Vol. 9).
Wiley-ISTE.
Mandran, N. et Dupuy-Chessa, S. (2017). THEDRE: A
Traceable Process for High Quality in Human Centred Computer Science Research.
Dans Proceedings of the International Conference on Information Systems
Development (ISD 2017).
Disponible sur internet.
Mandran, N., Vermeulen, M. et Prior, E. (2021). Comment
guider les doctorants dans l’utilisation du Design-Based Research ?
Dans Actes de la 10e Conférence Environnements
Informatiques pour l’Apprentissage Humain (EIAH 2021) (p. 130-141).
Disponible sur internet.
McKenney, S. et Reeves, T. C. (2019). Conducting
educational design research (second). Routledge.
Nielsen, J. (1994). Usability Engineering.
Elsevier.
Paillé, P. et Mucchielli, A. (2011). L’analyse qualitative en sciences humaine et sociales (2e éd.). Armand Colin.
Parahoo, S. K., Santally, M. I., Rajabalee, Y. et Harvey,
H. L. (2016). Designing a predictive model of student satisfaction in online
learning. Journal of Marketing for Higher Education, 26(1),
1–19. Disponible sur internet.
Planche, M., d’Ham, C., Hoffmann, C., Mandran, N.,
Girault, I., Wajeman, C. et Marzin, P. (2021). Soutien aux pédagogies
actives et transformations impulsées par une plateforme numérique
dédiée aux sciences expérimentales. Dans Actes de la 10e Conférence Environnements Informatiques pour
l’Apprentissage Humain (EIAH 2021).
Disponible sur internet.
Planche, M., Mandran, N., Girault, I., Marzin-Janvier,
P., d’Ham, C. et Wajeman, C. (2019). Contribution de différents
outils de mesure à l’évaluation des usages d’une
plateforme numérique par un processus longitudinal : Cas du travail
à distance. Dans Actes de la 9e Conférence
"Environnements Informatiques pour l’Apprentissage Humain (EIAH
2019).
Ray, D. (2001). Mesurer et développer la
satisfaction des clients. Editions d’Organisation.
Rentroia-Bonito, M. A. et Jorge, J. A. P. (2003). An
Integrated Courseware Usability Evaluation Method. Dans V. Palade, R. J. Howlett
et L. Jain (dir.), Knowledge-Based Intelligent Information and Engineering
Systems (Vol. 2774, p. 208–214). Springer.
Disponible sur internet.
Sanchez, É. et Monod-Ansaldi, R. (2015). Recherche
collaborative orientée par la conception. Education et Didactique, 9(2), 73–94.
Simon, H. A. (2004). Les Sciences de
l’artificiel [The sciences of the artificial] (J.-L. Le Moigne,
trad.). Gallimard. (Ouvrage original publié en 1996, 3e éd. rev. et complétée).
Tiberghien, A., Vince, J. et Gaidioz, P. (2009).
Design‐based Research: Case of a teaching sequence on mechanics. International Journal of Science Education, 31(17),
2275–2314. Disponible sur internet.
Vygotsky, L. S. (1978). Mind in society: The
development of higher psychological processes (M. Cole, V. John-Steiner, S.
Scribner et E. Souberman, dir.). Harvard University Press.
Disponible sur internet.
Wang, F. et Hannafin, M. (2005). Design-based research
and technology-enhanced learning environments. Educational Technology
Research and Development, 53(4), 5–23.
|