EIAH'2019 - Atelier Méthodes et outils pour tracer et évaluer un dispositif pédagogique en recherche en EIAH

Méthodes et outils pour tracer et évaluer un dispositif pédagogique en recherche en EIAH

Ville: 
Paris
Pays: 
France
Dates de début et fin de la manifestation: 
4 juin, 2019

Cadrage théorique
Dans le cadre des recherches en EIAH, l’évaluation d’une plateforme de support à l’activité d’apprentissage pour des apprenants ou des enseignants en situation réelle est complexe. Des facteurs techniques, humains, sociétaux peuvent influencer les résultats de cette évaluation [1], [2], [3]. Or, mesurer l’impact des plateformes sur l’activité des enseignants et des apprenants est essentiel pour savoir comment faire progresser ces plateformes afin qu’elles soient des outils de support à l’activité. Mais surtout, dans le cadre de travaux de recherche le dispositif doit aussi fournir des données expérimentales pour créer ou consolider des connaissances scientifiques. Des méthodes de production de données adéquates doivent être utilisés, et la traçabilité des données produites et des résultats doit être garantie. Selon Wang et Hannafin [4], l’évaluation doit donc pouvoir répondre à des questions de recherche, des questions technologiques, et des questions d’impact sociétal. Face à ces problèmes méthodologiques d’évaluation en situation écologique, notre atelier se propose d’aborder d’une part les problèmes de méthode de production et d’analyse de données pour répondre à ce triple objectif. D’autre part, l’atelier fournira une méthode de conduite de la recherche élaborée dans un souci de garantir la traçabilité des résultats [5]. Lors de l’atelier chacun des participants pourra adapter cette méthode à son propre contexte de travail. Notre objectif est que chaque participant reparte avec sa démarche de recherche décomposée en 8 périodes d’où l’idée d'« Octaèdre de la recherche en EIAH ».

[1] N. Mandran, S. Dupuy-Chessa, A. Front, and D. Rieu, ‘Démarche centrée utilisateur pour une ingénierie des langages de modélisation de qualité’, Ingénierie des systèmes d’information, vol. 18, no. 3, pp. 65–93, Jun. 2013.
[2] S. Dupuy-Chessa, N. Mandran, G. Godet-Bar, and D. Rieu, ‘A case Study for Improving a Collaborative Design Process’, in IFIP WG8.1 Working conférence on Method Engineering (ME’2011), 2011.
[3] F. Jambon, N. Mandran, B. Meillon, and C. Perrot, ‘Évaluation des systèmes mobiles et ubiquitaires : proposition de méthodologie et retours d’expérience’, in Ergo-IA’08 ‘L’humain au coeur des systèmes et de leur développement’, Biarritz, 2008, pp. 107–116.
[4] F. Wang and M. J. Hannafin, ‘Design-based research and technology-enhanced learning environments’, Educational Technology Research and Development, vol. 53, no. 4, pp. 5–23, 2005.
[5] N. Mandran, Traceable Human Experiment Design Research, ISTE ltd., vol. 9. 2018.

Organisation de l’atelier

Exposés théoriques (1h15)
• Introduction "Importance et nécessité d’avoir une méthode d'évaluation de la recherche" (Vanda Luengo)
• Méthodes de conception informatique des EIAH (méthode Agile, etc.) (Jannick Laval)
• Méthodes de conduite de la recherche (Eric Sanchez, Nadine Mandran)
• Démarche centrée utilisateur et démarche qualité/traçabilité (Nadine Mandran)
 

Atelier pratique "Concevoir une démarche de recherche en EIAH Traçable" (2h)

Lors de cet atelier 4 outils seront présentés :
• Cadrage d'un travail de recherche
• Arbre de décision pour choisir les méthodes expérimentales
• Protocole d'expérimentation
• Orchestration de la recherche

Les participants utiliseront ces outils pour construire leur propre démarche expérimentale de recherche en EIAH. Les outils seront présentés de manière globale et situés dans le cadre de la recherche des participants. Les participants utiliseront alors ces outils dans le cadre de leurs travaux. A l'issue de l'atelier les participants auront construits leur propre démarche de recherche traçable dans le contexte des EAIH. Un débriefing sera organisé pour discuter de ces outils et pour faire émerger des points d'améliorations.

Projet APACHES - ISite ULNE (30 mn)
Comment enseigner et outiller la formation à la méthodologie de recherche en informatique centrée humain ? (Mathieu Vermeulen, Abir Karami)

 
Mots clés
Evaluation centrée utilisateur, méthode, traçabilité, processus de recherche, démarche qualité
 
Plus d’informations
Date : 4 juin 2019  (demi-journée à préciser)

Dernière mise à jour : 5 avril, 2019 - 15:50