Retour à l'accueil Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
version pleine page
version à télécharger (pdf)

Volume 24, 2017
Article de recherche

Numéro Spécial
Sélection de la conférence
EIAH 2015



Contact : infos@sticef.org

Analyse de connaissances perceptivo-gestuelles dans un Système Tutoriel Intelligent

 

Ben-Manson TOUSSAINT (SITERE, Port-au-Prince), Vanda LUENGO (LIP6, Paris), Francis JAMBON (LIG, Grenoble)

 

RÉSUMÉ : Pour couvrir toutes les facettes des connaissances multimodales telles que les connaissances perceptivo-gestuelles, divers périphériques sont exploités. Les traces produites par ces derniers fournissent des informations pertinentes sur l’activité de l’apprenant. Cependant elles sont multi-sources et hétérogènes et, de ce fait, difficiles à traiter automatiquement. Pour faciliter leur traitement, il convient de leur fournir une représentation formelle qui reflète l’activité multimodale à laquelle elles sont liées. Cet article décrit notre proposition de formalisation de ce type de traces enregistrées à partir d’un Système Tutoriel Intelligent dédié à la chirurgie orthopédique percutanée, TELEOS.

MOTS CLÉS : Connaissances perceptivo-gestuelles, chirurgie orthopédique percutanée, Système Tutoriel Intelligent, TELEOS

Analysis of Perceptual-Gestural Knowledge in an Intelligent Tutoring Systems

ABSTRACT : To cover the aspects of multimodal knowledge such as perceptual-gestural knowledge, various devices are required. Traces produced by these devices provide rich information and often accurate on learners’ activity. However, those traces are multi-source and heterogeneous and, thus, difficult to process automatically. To foster their treatment, a formal representation that reflects consistent multimodal activity, to which they are linked, is needed. This paper describes our proposal to formalize this type of traces recorded from TELEOS, an Intelligent Tutoring System dedicated to percutaneous orthopedic surgery.

KEYWORDS : Perceptual-gestural knowledge, percutaneous orthopedic surgery, Intelligent Tutoring System, TELEOS

1. Introduction

Les connaissances perceptivo-gestuelles sont une combinaison de connaissances théoriques, de connaissances perceptuelles et de connaissances motrices liées aux gestes. Dans les systèmes tutoriels intelligents, ces connaissances s’expriment à travers les interactions de l’apprenant avec le système. Ces interactions se composent de perceptions accompagnant les actions et/ou les gestes exécutés. Les perceptions servent de contrôles pour la validation ou les décisions d’exécution de ces actions/gestes. Nous faisons l’hypothèse, dans notre travail, qu’elles fournissent des indications pertinentes sur les informations prises en compte dans les décisions de l’apprenant et de ce fait, ne sont pas négligeables du point de vue de l’analyse du processus d’apprentissage.

Ces connaissances sont cependant empiriques et souvent tacites (Vadcard et al., 2009). Par conséquent, elles sont difficiles à capturer et à modéliser. En fait, la capture des connaissances perceptivo-gestuelles dans les environnements d’apprentissage simulés requiert l’exploitation de différents capteurs capables d’enregistrer les différentes modalités des interactions mises en jeu par l’apprenant. Ces capteurs sont des périphériques indépendants qui produisent des traces d’activités hétérogènes. Dans ce travail, nous nous intéressons à la définition d’une méthodologie pour la formalisation de ce type de traces dans l’objectif d’analyser les interactions multimodales de l’apprenant et les connaissances qu’elles sous-tendent.

Notre cas d‘étude est TELEOS, un Système Tutoriel Intelligent orienté simulation, dédié à la chirurgie orthopédique percutanée (Luengo et al., 2011a). Les connaissances du domaine de la chirurgie percutanée sont perceptivo-gestuelles (Ceaux et al., 2009), (Mathews et al., 2012) : ce type d’opérations chirurgicales nécessite une coordination mentale entre les connaissances théoriques en anatomie, l’analyse de radiographies en 2D et la manipulation en 3D d’objets réels tels que le trocart et l’outil de radioscopie (fluoroscope), pour pouvoir assurer la trajectoire correcte des outils chirurgicaux vers la zone anatomique ciblée. Nous cherchons à mettre en lumière comment la prise en compte de ces différents aspects de l’activité chirurgicale est pertinente pour l’analyse de l’activité de l’apprenant.

La suite de l’article est organisée comme suit : la section 2 présente un état de l’art sur les travaux adressant des domaines faisant intervenir des connaissances multimodales et des travaux exploitant les perceptions à des fins d’analyses de l’apprentissage ; dans la section 3 nous décrivons le domaine, le déroulement d’un type d’opération chirurgicale percutanée, la vertébroplastie, et le caractère perceptivo-gestuel de l’activité du chirurgien au cours de la réalisation de ce type d’opération ; dans la section 4, nous présentons la méthodologie utilisée pour capter les interactions de modalités différentes au cours des simulations de vertébroplastie sur TELEOS ; dans la section 5, nous faisons une présentation détaillée de notre approche pour l’identification d’interactions de différentes modalités liées à une même activité ; dans la section 6, nous soulignons l’importance de prendre en compte les réponses du système aux actions de l’apprenant ; dans la section 7, nous détaillons notre proposition de formalisation d’interactions multi-sources et hétérogènes en séquences perceptivo-gestuelles reflétant les différentes modalités de ces interactions ; nous présentons, dans la section 8, les expérimentations conduites dans le but d’évaluer cette proposition et nous concluons l’article dans la section 9.

2. Etat de l’art

La littérature rapporte beaucoup de travaux de recherche sur la conception de systèmes d’apprentissage dédiés à des domaines faisant intervenir des connaissances perceptivo-gestuelles. Nous pouvons citer les travaux réalisés par (Mulgund et al., 1995) sur le pilotage d’hélicoptères, par (Remolina et al., 2004) sur l’aviation et par (Weevers et al., 2003) et (de Winter et al., 2008) sur la conduite automobile. Plus récemment, le Système Tutoriel Intelligent CanadarmTutor a été proposé pour l’entrainement des astronautes de la Station Spatiale Internationale à la manipulation d’un bras articulé robotisé (Fournier-Viger et al., 2011).

Cependant, l’emphase est portée, dans ces travaux, sur les actions et les gestes, et non sur les perceptions accompagnant ces derniers. Par exemple, dans CanadarmTutor, la manipulation du bras robotisé d’une configuration à une autre est guidée par des caméras dans différentes scènes d’opération. Les perceptions visuelles intervenant au cours de la manipulation du bras robotisé jouent probablement un rôle important dans le processus et, de ce fait, leur prise en compte dans l’analyse de l’activité de l’apprenant serait pertinente.

D’autres travaux ont été conduits sur l’analyse des perceptions en contexte d’apprentissage. Par exemple, les perceptions visuelles sont capturées et analysées pour inférer les performances cognitives de l’apprenant (Steichen et al., 2013) ou pour inférer leurs capacités métacognitives en apprentissage exploratoire (Conati et Merten, 2007). D’autres chercheurs exploitent de préférence les informations perceptuelles collectées pour mesurer la charge mentale de l’apprenant ou leur effort cognitif en situation d’apprentissage (Lach, 2013) ou encore pour inférer leur comportement au cours du processus d’apprentissage (D’Mello et al., 2012), (Mathews et al., 2012). D’autres études font intervenir des capteurs permettant d’enregistrer les postures physiques, les expressions faciales et corporelles dans le but d’analyser des signaux émotionnels de l’apprenant (Ríos et al., 2000).

Dans notre travail, nous faisons l’hypothèse que les prises d’informations perceptuelles peuvent dénoter, à l’instar des actions/gestes qu’elles accompagnent, l’état des connaissances de l’apprenant. De ce fait, nous pensons qu’elles doivent être analysées d’un point de vue épistémique. Spécifiquement, pour notre cas d’étude, les experts ont indiqué l’importance des vérifications de points anatomiques précis sur les radios pour accompagner la décision d’exécuter et de valider les gestes chirurgicaux (Ceaux et al., 2009).

En d’autres termes, l’objectif de ce travail est de démontrer la pertinence d’analyser les connaissances perceptivo-gestuelles en considérant chacune de leurs caractéristiques multimodales. Nous décrivons dans la section suivante le déroulement d’un type d’opération orthopédique percutanée, la vertébroplastie, et soulignons les différentes modalités de l’activité du chirurgien au cours de cette opération.

3. La vertébroplastie : une opération chirurgicale percutanée

3.1. Déroulement d’une opération de vertébroplastie

La vertébroplastie est une opération chirurgicale mini-invasive réalisée pour traiter les fractures des vertèbres par l’injection d’un ciment osseux dans les vertèbres affectées, grâce à un outil d’insertion (le trocart). Cette opération est dite mini-invasive, car effectuée à travers la peau du patient, contrairement aux opérations classiques nécessitant une ouverture. De ce fait, le chirurgien ne dispose pas d’une visibilité directe de la progression de ses outils à travers le corps du patient. Le guidage s’effectue dans ce type d’opération par le biais d’imageries médicales (scanner ou radiographies) qui renvoient au chirurgien les informations sur la trajectoire de ses outils. En vertébroplastie, les images médicales utilisées sont des radiographies générées tout au long de l’opération grâce à un fluoroscope.

Une opération de vertébroplastie se réalise en trois grandes phases :

- la phase de réglages du fluoroscope,

- la phase de repérage cutané,

- la phase d’insertion du trocart.

La phase de réglages sert à chercher le positionnement du fluoroscope optimisant la qualité des radiographies (de face et de profil) qui vont guider le chirurgien tout au long de l’opération. La phase de repérage cutané consiste à dessiner, sur la peau du patient, les lignes définissant le repère d’insertion adéquat du trocart. Enfin la phase d’insertion est celle où le trocart est manipulé de manière à atteindre la zone anatomique affectée pour y injecter le ciment osseux.

3.2. Le caractère multimodal d’une opération de vertébroplastie

L’interprétation des radiographies à des fins de guidage est une habileté cognitive qui requiert la coordination de la représentation en 2D renvoyée par les radiographies, avec la représentation en 3D dans le monde réel. De manière plus précise, la position d’un instrument chirurgical, relativement à l’environnement anatomique sur sa trajectoire, se conçoit sur trois dimensions. Par exemple, le positionnement complet du trocart est fourni par la combinaison de son positionnement sur l’axe antérieur (la profondeur d’insertion du trocart dans le corps du patient), son positionnement sur l’axe transversal (la position de la pointe de l’outil relativement aux limites droite et gauche du corps du patient) et son positionnement sur l’axe longitudinal (la position de la pointe de l’outil relativement à l’axe défini par la tête et les membres inférieurs du patient).

Cependant, les radiographies de guidage ne peuvent fournir qu’une représentation sur deux dimensions du positionnement de l’outil : les radiographies de face indiquent le positionnement sur l’axe transversal et l’axe longitudinal, et les radiographies de profil, sur les axes antéro-postérieur et longitudinal. Le positionnement réel de l’outil tout au long de sa trajectoire percutanée ne peut donc se faire que par le couplage d’au moins deux radiographies, soit au moins une radiographie fournissant une vue du point d’entrée du trocart (radiographie de face) et une radiographie fournissant une vue du point de progression du trocart (radiographie de profil) (cf. Figure 1).

Figure 1 • Vue « point d’entrée » (radiographie de face) et vue « progression » (radiographie de profil) du trocart

Ainsi, le chirurgien valide ses gestes et ses actions sur la base des contrôles visuels de ces radiographies. Ce travail de validation s’effectue par l’analyse du positionnement de l’outil vis-à-vis de certains points anatomiques précis du patient. De ce fait, les perceptions visuelles constituent une facette de l’ensemble des connaissances à maîtriser par le chirurgien.

Les connaissances mises en jeu pour la réalisation du geste chirurgical percutané comprennent une autre facette perceptuelle : les perceptions haptiques ressenties sur la trajectoire de l’outil chirurgical dans le corps du patient. Ces perceptions sont les résistances perçues par le chirurgien au contact de son outil avec les différentes parties de la zone anatomique traversée sur sa trajectoire d’insertion. Ces perceptions renvoient des informations sur la progression de l’outil sur la base desquelles le chirurgien adapte aussi son geste, en complément des informations visuelles recueillies à travers les radiographies.

Dans la section suivante, nous présentons la méthodologie utilisée pour capturer chacune des modalités des interactions de l’apprenant au cours des simulations de vertébroplastie dans l’environnement d’apprentissage TELEOS.

4. Capture de traces multimodales dans TELEOS

Pour pouvoir capter les différentes facettes des interactions mises en jeu au cours d’une simulation de vertébroplastie, deux périphériques sont utilisés en complément de l’interface de simulation qui enregistre les actions ponctuelles de l’apprenant. Il s’agit d’un oculomètre pour tracer le comportement visuel de l’apprenant et d’un bras à retour d’effort pour capter les gestes effectués et les retours haptiques reçus par l’apprenant.

4.1. Les actions ponctuelles

Le simulateur enregistre des traces de manière ponctuelle à l’exécution d’une action. Il s’agit des actions liées aux réglages du fluoroscope, au tracé des repères cutanés et à la manipulation du trocart. Le tableau 1 présente un résumé des actions ponctuelles pouvant être exécutées à partir de l’interface du simulateur.

Chaque action est traitée comme une photographie de l’environnement de simulation au moment de son exécution. En effet, à chaque occurrence d’une action du simulateur, les coordonnées des positions des différents outils de l’environnement sont enregistrées. De ce fait, une action est caractérisée non seulement par son nom, mais aussi par les positions des outils de l’environnement de simulation au même moment.

Tableau 1 • Actions ponctuelles enregistrées à partir de l’interface de simulation

Prise de radios

Repérage cutané

Manipulation du trocart

Definir_Face
Contrôle_Face
Definir_Profil
Contrôle_Profil
Radio_Face (avec réglette de repérage cutané)

Valider_RepèreGauche
Valider_RepèreDroit
Valider_RepèreTransversal

Placer_Trocart
Pousser_Trocart
Impacter_Trocart
Entrée_CorpsVertebral
Sortie_CorpsVertebral
Sortie_Osseuse
Recommencer_Trajectoire

Par exemple, tel qu’illustré dans la Figure 2, deux prises de radio de face seront différentes si le positionnement du fluoroscope a changé entre les deux exécutions.

Figure 2 • Radiographies de face d’après deux inclinaisons différentes du fluoroscope

Chaque action est représentée par une séquence contenant les paramètres suivants :

- un code temporel,

- le nom de l’action,

- les coordonnées (x, y, z) du modèle 3D du patient,

- les coordonnées (x, y, z) de la position du fluoroscope en mode face,

- les coordonnées (x, y, z) de la position du fluoroscope en mode profil,

- les coordonnées (x, y) de l’affichage de la dernière radiographie prise,

- les coordonnées (x, y) de l’affichage de la radiographie précédente,

- les coordonnées (x, y, z) de la position du fluoroscope,

- les coordonnées (x, y, z) de la position de la pointe du trocart,

- les coordonnées (x, y, z) de la position de la poignée du trocart,

- les coordonnées (x, y, z) (x’, y’, z’) de l’orientation du trocart,

- les coordonnées (x, y), (x’, y’), (x”, y”) des 3 repères cutanés.

4.2. Les gestes et perceptions haptiques

Le geste chirurgical inclut les types de préhension des outils chirurgicaux, les niveaux de forces appliquées selon l’étape de progression et les inclinaisons, l’orientation et la direction d’insertion des outils (Luengo et al., 2011b). Le recueil des données nécessaires à la modélisation des gestes chirurgicaux pour la vertébroplastie a été réalisé sur des maquettes de patients. L’instrumentation nécessaire (cf. Figure 4) inclut notamment des dynamomètres positionnés dans les maquettes pour pouvoir recueillir les données relatives aux niveaux de force appliqués sur le trocart et à la vitesse de progression de celui-ci à des points de progression importants. Les principaux points de progression considérés pour une vertébroplastie sont le contact cutané, le contact osseux, l’entrée pédiculaire, la traversée du corps vertébral jusqu’au point de validation de la trajectoire du trocart.

La configuration du bras haptique a été réalisée sur la base de ces données. Le matériel utilisé dans l’environnement TELEOS est un Sensable Phantom Omni qui fournit six degrés de liberté avec un retour d’effort sur les trois axes de translation – cf. Figure 3 (iii). Les résistances configurables sur cet appareil sont relativement faibles, mais suffisantes pour simuler des variations de densité du corps humain et des vertèbres sur la trajectoire des outils chirurgicaux (Luengo et al., 2011a).

Les traces provenant de cet appareil sont enregistrées en continu toutes les 100 millisecondes. Chaque trace contient les paramètres suivants :

- un code temporel,

- les coordonnées (x, y, z) de la position de la pointe du trocart,

- les coordonnées (x, y, z) de la position du manche du trocart,

- les coordonnées (x, y, z) (x’, y’, z’) de l’orientation du trocart,

- la vitesse de manipulation du trocart,

- la force appliquée sur le trocart.

Les paramètres d’orientation, de vitesse et de force sont les résultats d’un traitement préliminaire des traces haptiques (Luengo et al., 2011a).

Figure 3 • (i), (ii) Instrumentations pour le recueil des données gestuelles et haptiques relatives à la manipulation du trocart. (iii) Bras haptique et dispositif matériel dans l’environnement de simulation

4.3. Les perceptions visuelles

L’interface de simulation est divisée en plusieurs zones d’intérêt (cf. Figure 4) : la zone d’affichage du modèle 3D du patient ; les zones d’affichage des radiographies précédentes et courantes ; le tableau de réglages principal. Ce dernier comprend trois sous-sections : le tableau de réglages de l’appareil de radioscopie ou fluoroscope, le tableau de manipulation de la réglette pour le marquage de repères cutanés destinés à cibler l’os affecté, le tableau de manipulation de l’outil de guidage des instruments chirurgicaux ou trocart.

Figure 4 • L’interface du simulateur TELEOS

Figure 5 • Identification et annotation des points d’intérêt des vertèbres

Figure 6 • Codes des zones et points d’intérêt enregistrés au cours des simulations de vertébroplastie

La zone d’intérêt associée à l’affichage de la radiographie courante comporte plusieurs points d’intérêt devant être pris en compte sur la vertèbre pour la validation de la trajectoire d’insertion du trocart. Les points d’intérêt de la vertèbre cible ont été désignés par un chirurgien expert pour chaque cas clinique modélisé et intégré dans la base d’exercices du simulateur. Tel qu’illustré dans la Figure 5, leur identification est effectuée à partir des coupes en deux dimensions du scanner de la colonne vertébrale du patient. Les coordonnées de ces points sont enregistrées dans les métadonnées du cas clinique. Lorsque celui-ci est sélectionné comme exercice, les points enregistrés sont projetés sur les radiographies produites par l’apprenant. Les zones et points d’intérêt de l’interface et de la vertèbre sont illustrés dans la Figure 6.

Un outil d’analyse des perceptions visuelles intégré au simulateur permet d’analyser le parcours visuel de l’apprenant (Jambon et Luengo, 2012). Il enregistre les coordonnées des perceptions, les zones et points d’intérêt visualisés ainsi que la durée des visualisations. La Figure 7 illustre un parcours visuel (traces en bleu) à travers certaines zones d’intérêt de l’interface et certains points d’intérêt à l’intérieur de ces zones. Dans cet exemple, le chirurgien débute son exploration de l’interface en visualisant la position du trocart dans la zone 3D (en haut à gauche), puis parcourt certains repères anatomiques sur la dernière radiographie de profil effectuée (en haut à droite). Il s’intéresse ensuite aux repères anatomiques affichés sur la précédente radiographie de face (en bas à droite). Enfin, il termine son parcours visuel par la zone de réglage du fluoroscope (en bas à gauche) avant d’y exécuter la prochaine action.

Figure 7 • Zones (en vert) et points (en jaune) d’intérêt de l’interface et parcours visuel de l’apprenant sous forme de données brutes (en gris) et perceptions (en bleu)

Pour chaque trace de l’oculomètre, les enregistrements rapportent les paramètres suivants :

- un code temporel,

- le nom de la zone et/ou des points d’intérêt fixés,

- les coordonnées (x, y) de la perception,

- le rayon de la perception,

- la durée de la perception.

4.4. Hétérogénéité des traces

Chaque source enregistrant les interactions de l’apprenant séparément et indépendamment des autres périphériques, l’ensemble des traces obtenues est hétérogène. Cette hétérogénéité se retrouve à plusieurs niveaux.

Tout d’abord, les traces sont hétérogènes au niveau du type de leur contenu : les traces envoyées par l’interface du simulateur et les traces de l’oculomètre sont alphanumériques alors que celles envoyées par le bras haptique sont numériques. Elles sont aussi hétérogènes au niveau du format de leur contenu. En effet, chaque trace du logiciel de simulation compte 54 paramètres, celles provenant du bras haptique comptent 15 paramètres et celles provenant de l’oculomètre, 7 paramètres distincts. Enfin, les traces des différentes sources se distinguent au niveau de leur granularité temporelle. Les traces oculométriques sont envoyées et enregistrées en continu toutes les 30 millisecondes ; celles du bras haptique sont aussi envoyées et enregistrées en continu, mais à un intervalle de 100 millisecondes, tandis que celles du simulateur sont discrètes : elles sont produites et enregistrées de manière ponctuelle à l’exécution d’une action.

Le principal verrou technique à soulever à ce niveau est de fusionner ces traces de manière à les représenter sous forme de séquences cohérentes. Il s’agit de lier chaque action ou geste aux perceptions qui ont accompagné son exécution. Le verrou scientifique connexe consistera à valider la cohérence de cette représentation relativement à la connaissance multimodale qu’elle est censée traduire.

5. Jonction entre actions, gestes et perceptions

Le premier défi de la représentation des traces consiste à identifier les traces de chaque source représentant un aspect de la même interaction. En d’autres termes, il faut parvenir à relier actions, perceptions et gestes exécutés dans le but d’atteindre un même objectif. Pour illustrer par un exemple simple en chirurgie orthopédique percutanée, une prise de radiographie de profil, jointe à la perception de la position de l’épineuse de la vertèbre affectée et à une inclinaison puis un déplacement du trocart sur l’axe postéro-antérieur, permet d’inférer un élément de connaissance relatif au démarrage de la trajectoire d’insertion du trocart.

Nous faisons l’hypothèse que les perceptions visuelles sont exploitées comme support pour valider ou vérifier l’exécution d’une action ou la réalisation d’un geste, et que les perceptions haptiques sont exploitées comme support d’adaptation du geste. Il existe, de ce point de vue, plusieurs combinaisons possibles entre les différentes modalités de l’interaction. Nous distinguons ainsi des interactions perceptivo-gestuelles de type « contrôle a priori », « contrôle a posteriori » ou « mixte ».

5.1. Interaction perceptivo-gestuelle de type « contrôle a priori »

Une interaction perceptivo-gestuelle de type contrôle a priori fait référence à une interaction multimodale plaçant les contrôles perceptuels avant les actions ou les gestes. Pour illustrer par un exemple simple en chirurgie, le chirurgien vérifie le positionnement du trocart sur les radiographies de face et de profil avant d’amener l’outil au contact de la vertèbre ciblée. Dans ce cas de figure, l’interaction perceptivo-gestuelle est représentée par des items de modalités perceptuelles suivis des items d’action ou de geste. Ce type de perception peut être relatif à une validation avant une action.

5.2. Interaction perceptivo-gestuelle de type « contrôle a posteriori »

Une interaction perceptivo-gestuelle est de type « contrôle a posteriori » lorsque les items de modalités perceptuelles se placent après les actions et les gestes. En d’autres termes, les prises d’informations perceptuelles sont réalisées systématiquement après l’exécution des actions et gestes qu’elles accompagnent. Par exemple, une interaction perceptivo-gestuelle de type « contrôle a posteriori » est observée si le chirurgien insère le trocart puis vérifie son positionnement par rapport à la trajectoire prévue sur les radiographies.

5.3. Interaction perceptivo-gestuelle de type « mixte »

Une interaction perceptivo-gestuelle de type mixte désigne une interaction où les occurrences des items de différentes modalités sont simultanées. Il s’agit d’une interaction au cours de laquelle les prises d’informations perceptuelles s’effectuent dans le continuum d’un même geste ou en même temps qu’une action. Pour reprendre notre exemple, il s’agirait pour le chirurgien de procéder à une manipulation continue du trocart tout en vérifiant sa progression sur les radiographies prises.

5.4. Différenciation des perceptions

Toutes les perceptions ne sous-tendent pas les mêmes objectifs et ne mobilisent pas les mêmes ressources cognitives de l’apprenant. En chirurgie orthopédique percutanée, les perceptions visuelles requièrent du chirurgien la capacité mentale à coordonner les images radio en deux dimensions pour pouvoir se représenter de manière précise la position de ses outils par rapport aux zones anatomiques traversées. Pour leur part, les perceptions haptiques donnent une information moins précise sur la position des outils, mais moins difficile à interpréter quant à la texture de la région anatomique traversée par les outils.

Certaines perceptions visent une analyse précise de l’environnement alors que d’autres visent simplement une prise d’informations sur l’état de l’environnement. Par exemple, la visualisation de certains points précis d’une vertèbre sur une radio peut révéler une analyse de la validité du point d’insertion du trocart alors qu’une pression sur l’outil peut constituer une simple sollicitation d’un retour haptique dont le but est d’informer le chirurgien sur la rigidité de la zone anatomique traversée.

Dans le cadre de ce travail, nous nous intéressons spécifiquement à la distinction des perceptions visuelles, sous l’hypothèse qu’elles permettent d’inférer avec plus de précision les intentions de l’apprenant ou, d’une manière générale, sa stratégie. Nous proposons de concevoir cette distinction sous deux grandes catégories : les perceptions visuelles de contrôle et les perceptions d’exploration.

5.4.1. Les perceptions visuelles de contrôle

Les perceptions visuelles de contrôle sous-tendent une activité cognitive dont le but est d’analyser l’environnement en mobilisant des connaissances précises. Cela rejoint le concept de contrôle du modèle cK¢ (Balacheff, 2013) en l’adaptant aux connaissances perceptivo-gestuelles. Au-delà d’une simple prise d’information visuelle, leur rôle est d’évaluer les actions exécutées. Par exemple, en vertébroplastie, la vérification du positionnement de l’épineuse pour décider du centrage de la vertèbre ciblée repose sur des perceptions de contrôle. En aviation, la lecture des indicateurs d’altitude, de variation d’altitude et de puissance du moteur au cours de la préparation à l’atterrissage repose aussi sur des perceptions de contrôle. Ces perceptions ciblent les points précis de l’environnement qui rendent compte des conséquences des actions ou gestes exécutés et donc des connaissances relatives à ces actions ou gestes.

5.4.2. Les perceptions visuelles d’exploration

Les perceptions visuelles dites d’exploration se limitent à une prise d’information sur l’état de l’environnement sans rapport aux connaissances (ici, perceptivo-gestuelles), mais plutôt relatives à la compréhension de l’environnement dans lequel les actions et gestes seront réalisés. Elles sont traduites par des visualisations moins précises que les perceptions de contrôle. Elles ciblent les éléments de l’environnement permettant d’agir sur celui-ci, c’est-à-dire les éléments de l’interface liés à l’exécution des actions telle que la manette de manipulation de l’outil de radioscopie en chirurgie percutanée. Par exemple, dans l’interface de TELEOS (cf. Figure 7), la visualisation dans la zone de réglage du fluoroscope (en bas à gauche) permet d’explorer le rapport entre ces outils de l’interface et le positionnement du fluoroscope.

6. Les « interactions » du système

Nous désignons par interactions du système les interactions ne venant pas directement de l’activité de l’apprenant sur l’interface, mais ayant un rapport direct avec celle-ci. En d’autres termes, il s’agit des réactions du système aux actions de l’apprenant. Pour illustrer, prenons l’exemple d’un STI où l’apprenant peut solliciter l’aide du système au cours de la résolution d’un problème. Il peut être pertinent de considérer le contenu et la forme de l’aide envoyée, dans la mesure où la façon dont ces réactions sont prises en compte et exploitées dans l’apprentissage peut avoir une forte corrélation avec les performances de l’apprenant (Paquette et al., 2012). Dans notre cas d’étude, les interactions système considérées sont l’état de la simulation et les résultats du diagnostic de l’apprenant.

6.1. L’état de la simulation

L’état de la simulation désigne spécifiquement les positionnements de tous les artefacts de l’environnement de simulation à l’exécution d’une action (Guéraud et al., 1999). Il rend compte de la manière dont l’exécution d’une action affecte l’environnement. Avant l’exécution d’une action, l’état de la simulation est une information exploitée par l’apprenant pour prendre sa décision ; après l’exécution de l’action, l’état de la simulation traduit les conséquences de celle-ci sur l’environnement.

L’objectif est non seulement de tracer les conséquences des actions de l’apprenant sur l’environnement d’apprentissage, mais aussi la manière dont cette action a été exécutée. Cette information peut être discrète (par ex. : « Le trocart a une inclinaison caudale »), ou continue (par ex. : « Le trocart est incliné rapidement dans l’axe céphalo-caudal »).

L’état de la simulation n’est pas directement tracé par le système, mais résulte d’un traitement dont l’objectif est d’effectuer une « photographie » de l’environnement d’apprentissage à la suite d’interactions directes de l’apprenant. La prise en compte de l’état de la simulation dans les séquences vise à rendre compte de l’ensemble des informations qui sous-tendent les décisions de l’apprenant. Partant du principe que ces décisions ne sont pas restreintes par une marche à suivre prédéfinie, par exemple avec des règles de production, nous faisons l’hypothèse que l’état de la simulation apporte des précisions supplémentaires non négligeables dans l’analyse de l’activité de l’apprenant.

6.2. Evaluation de l’activité de l’apprenant

Nous voulons procéder à des traitements automatiques sur les séquences d’interactions des apprenants en prenant en compte des évaluations de leur activité produites à partir de règles expertes (Amershi et Conati, 2007), (Beck, 2007).

Les évaluations à partir de règles expertes considérées dans ce travail sont appelées des « variables de situation » calculées par le module « modèle de l’apprenant » (Chieu et al., 2010). Nous considérons les variables de situation comme des interactions du système, car elles constituent des réactions du simulateur directement liées à l’activité de l’apprenant. À titre d’illustration, les évaluations d’une radiographie prise par l’apprenant peuvent être les suivantes : « Le centrage de la vertèbre sur la radiographie de face est correcte. La visibilité des disques vertébraux sur la radiographie de face est incorrecte ». Ces évaluations sont directement liées au positionnement du fluoroscope choisi par l’apprenant pour générer les radiographies qui vont le guider au cours de l’opération.

7. Formalisation des séquences perceptivo-gestuelles

Nous décrivons ci-dessous la représentation conceptuelle proposée pour les séquences perceptivo-gestuelles sur la base des caractéristiques décrites dans les sections 5 et 6. Nous faisons une distinction entre séquences perceptivo-gestuelles et séquences perceptivo-gestuelles enrichies. Les séquences perceptivo-gestuelles représentent les interactions impliquant des actions et/ou des gestes et les perceptions accompagnant ceux-ci. Les séquences perceptivo-gestuelles enrichies comportent, en complément des actions/gestes et perceptions, des informations sur l’état de la simulation et des informations sur les évaluations de l’activité de l’apprenant (voir section 6 « Les interactions du système »).

7.1. Séquences perceptivo-gestuelles

Définition 1 (séquence perceptivo-gestuelle). Une séquence perceptivo-gestuelle est une liste d’itemsets S, telle que :

S : < Ai | Gj ; Pk >

Avec :

- A : les actions enregistrées dans la séquence ;

- G : les gestes enregistrés dans la séquence ;

- : une séquence perceptivo-gestuelle comprend au moins une action ou un geste ;

- : les paramètres des actions ;

- j : les paramètres des gestes ;

- P : les perceptions accompagnant les actions et gestes ;

- k : les paramètres des perceptions.

Un itemset est un ensemble d’items cooccurrents (Agrawal et Srikant, 1994). Dans notre représentation d’une séquence perceptivo-gestuelle, les points-virgules délimitent les itemsets sur la base de leurs occurrences. « A | G » (A ou G) indique qu’une séquence perceptivo-gestuelle inclut des items d’actions ponctuelles ou de gestes.

La Figure 8 illustre par un exemple la représentation d’une séquence perceptivo-gestuelle. Cette séquence rapporte l’exécution de l’action « Impacter_trocart ». Celle-ci traduit l’action du chirurgien d’amener le trocart au contact de la vertèbre au niveau du point d’entrée ciblé. Dans cet exemple, seule l’action ponctuelle (A) est prise en compte, et non ses paramètres (i).

Le geste rapporté dans la séquence informe que le trocart a été enfoncé (trocart_translation_antérieure), avec un déplacement vers le côté droit du patient (trocart_translation_droite), dans la direction de ses membres inférieurs (trocart_translation_caudale). Les parenthèses indiquent que ces trois items sont co-occurrents. Dans notre cas d’étude, les gestes sont déduits de la variation des coordonnées du bras haptique traduite selon le système de référence en anatomie (Toussaint et al., 2015b).

Les paramètres des perceptions visuelles rapportent les zones d’intérêt de l’interface qui ont été analysées. Par exemple, O_outil_vue3D fait référence à une vérification du positionnement du trocart sur le modèle en 3 dimensions du patient et O_manipReglage_1, à une visualisation du panel de réglage du fluoroscope. Le suffixe « _1 » précise que la visualisation de cette zone a duré moins de 1 000 millisecondes.

Figure 8 • Représentation d’une séquence perceptivo-gestuelle

7.2. Séquences perceptivo-gestuelles enrichies

Définition 2 (séquence perceptivo-gestuelle enrichie). Une séquence perceptivo-gestuelle enrichie est une liste Se de séquences, telle que :

Se: < (Si ; Ʈi) ; qr))>

Avec :

- S: les séquences perceptivo-gestuelles composant la séquence enrichie ;

- Ʈj : les états de la simulation enregistrés dans S;

- Ѵ: des variables d’évaluation à partir de règles expertes ou « variables de situation » évaluant les séquences Si ;

- υr: les valeurs des variables d’évaluation.

La Figure 9 illustre la représentation formelle décrite dans la Définition 2, par un exemple de notre cas d’étude.

Figure 9 • Représentation d’une séquence perceptivo-gestuelle enrichie

La séquence illustrée ci-dessus représente une action de prise de radio de face suivie par le traçage des repères cutanés. Pour rappel, les repères cutanés servent à marquer le point d’entrée du trocart sur la peau du patient. L’item sur l’état de la simulation, AmpliFace_inclinaison_craniale, précise que l’appareil de radioscopie est incliné vers la tête du patient.

Les états de la simulation sont déduits de la sémantisation des paramètres des actions ponctuelles. En effet, lorsqu’une action ponctuelle, telle que « Definir_Face » est exécutée, le simulateur prend une « photographie » de l’interface de simulation. En d’autres mots, le simulateur capte les coordonnées de tous les outils de l’interface au moment de l’exécution de l’action et les enregistre, dans les traces brutes, comme les paramètres de cette action. Ensuite, ces traces sont analysées pour donner du sens vis-à-vis du problème.

Enfin, les évaluations contenues dans chaque séquence perceptivo-gestuelle enrichie indiquent la conformité de cette action au regard d’un ensemble de règles expertes. Dans notre exemple, l’affichage de la radio prise lors de l’exécution de l’action « Définir_Face » est évaluée par trois variables. RF_centrageVertebre-correct rapporte que le centrage de la vertèbre ciblée sur la radio de face est correct, alors que RF_disquesVisibles-incorrect indique que la visibilité des disques des vertèbres affichées sur la radio est incorrecte ; et RF_symetriePedicEpineuse-incorrect, que la symétrie de l’épineuse par rapport aux pédicules de la vertèbre ciblée est incorrecte.

8. Réification du modèle de représentation des séquences perceptivo-gestuelles

Pour réifier le modèle décrit dans la section précédente, nous avons développé le framework PeTRA (PErceptual-gestural TRAces treatment framework) (Toussaint et al., 2015b). PeTRA offre un ensemble d’outils permettant, d’une part, de représenter des traces multi-sources hétérogènes en séquences perceptivo-gestuelles et, d’autre part, de procéder à des analyses de l’apprentissage et à l’extraction de motifs de connaissances fréquents sur la base de ces séquences.

Le framework est développé sous la forme d’un processus exploitant une chaîne de logiciels ; ces logiciels sont des outils à fonction unique que nous appelons des « opérateurs » (Mandran et al., 2015). Cette structure, schématisée dans la Figure 10, a été choisie dans un souci de rendre le processus flexible et évolutif. En effet, cette structure facilite les manipulations qui consistent à écarter au besoin les opérateurs jugés non pertinents pour les objectifs de traitement visés, à agencer les opérateurs que l’on veut exploiter et à en intégrer de nouveaux si nécessaire. Dans cet article, nous nous concentrons sur les opérateurs de fusion, de sémantisation et d’annotation. Ces opérateurs font partie de la phase « Transformation de traces » du processus de traitement. Ce sont les principaux opérateurs permettant de transformer les traces brutes multi-sources de notre cas d’étude en séquences perceptivo-gestuelles et séquences perceptivo-gestuelles enrichies. L’ensemble du framework et les opérateurs qui le composent sont décrits in extenso dans (Toussaint, chap. 7, 2015).

Figure 10 • Schéma du framework PeTRA

8.1. L’opérateur de fusion

L’opérateur de fusion ou « fusionneur » a pour rôle de synchroniser les traces multi-sources se référant à une interaction multimodale, sur la base de leur correspondance séquentielle. L’objectif est de lier les actions et gestes aux perceptions qui les accompagnent sans perdre la séquentialité des occurrences des différentes modalités.

L’opération de fusion est réalisée en deux phases. Dans un premier temps, les traces des différentes sources sont jointes dans un même ensemble et ordonnées séquentiellement. Dans un deuxième temps, l’opérateur fusionne les actions, les gestes et les perceptions sur la base de la configuration de fusion choisie. En fonction du domaine, ou de l’analyse didactique ou pédagogique ciblée, la configuration de fusion entre les traces perceptuelles et une action ou un geste peut être établie sur la base d’un lien de type « contrôle a priori », de type contrôle « a posteriori » ou bien « mixte » (voir section 5 « Jonction entre actions, gestes et perceptions »). En d’autres termes, les perceptions seront considérées comme liées à une action (ou à un geste) si elles précèdent, suivent ou bien sont simultanées à cette action (ou ce geste).

Dans notre cas d’étude, chaque action exécutée à partir de l’interface du simulateur TELEOS est associée à plusieurs traces de l’oculomètre et du bras haptique. Les interactions sont considérées de type « contrôle a posteriori » (voir section 5). Par exemple, si l’interne cherche à positionner le trocart, l’action Placer_Trocart va être envoyée par le simulateur. Les différentes manipulations (déplacements, force, vitesse) destinées à placer l’outil dans la position et l’inclinaison idoines sont enregistrées par le bras haptique. Les points visualisés sur la radiographie prise et sur le modèle 3D sont enregistrés par l’oculomètre. Plusieurs points de fixation et plusieurs gestes correspondent donc à une occurrence de l’action Placer_Trocart.

8.2. L’opérateur de sémantisation

L’opérateur de sémantisation ou « sémantisateur » a été implémenté dans l’optique de traduire les coordonnées brutes des objets de l’environnement de simulation en dénominations sémantiques.

Dans notre cas d’étude, les traces ne rapportent que les nouvelles coordonnées des positions des outils quand ceux-ci sont manipulés. Pour caractériser les changements résultant de ces manipulations, l’opérateur de sémantisation prend en entrée les traces fusionnées dans l’étape précédente et la liste des dénominations sémantiques correspondant aux différents changements de coordonnées possibles pour chaque objet de l’environnement. Les dénominations sémantiques utilisées sont tirées du système de référence en anatomie illustré dans la Figure 11.

Figure 11 • Qualificatifs d’orientation et de mouvement dans le système de référence en anatomie

L’opérateur utilise les coordonnées de la séquence courante rapportant les nouvelles positions des outils, et les coordonnées de la séquence précédente par rapport auxquelles le changement effectué sera caractérisé. Les séquences produites à cette étape traduisent, non seulement les conséquences de la manipulation des outils sur leur positionnement, mais aussi la manière dont cette manipulation a été effectuée. Cette information peut être discrète (par ex. « Le trocart a une inclinaison caudale ») ou continue (par ex. « Le trocart est incliné rapidement dans l’axe cranio->caudal »).

Le Tableau 2 présente un exemple de séquences de traces avec des coordonnées brutes et le résultat de la sémantisation. Par souci de simplification, seules les coordonnées du trocart sont présentées dans cet exemple.

Tableau 2 • Sémantisation des coordonnées des outils

Traces fusionnées


Actions simulateur

Coordonnées manche et pointe du trocart

Perceptions, (durées en ms)

S1

Controle_Face

(150.126, -115.484, 114.948)
(153.729, 6.744, 153.264)

manipReglage, 1109
(outil_vue3D vue3D, 2757)

S2

Placer_Trocart

(150.126, -115.484, 114.948)
(153.729, 6.744, 153.264)

(outil_vueRadio vueRadioFace, 359)
vueRadioFace, 3717

S3

Controle_Face

(141.384, -114.981, 120.160)
(153.729, 6.744, 153.264)

(O_outil_vue3D O_vue3D, 280)
O_manipReglage, 14284

S4

Impacter_Trocart

(141.454, 114.009, 120.119)
(153.801, 7.740, 153.208)

O_manipReglage, 1199
O_vueRadioFace, 809

Séquences sémantisées


Actions simulateur

Actions trocart

Etats des outils

Perceptions, (durée en ms)

S2-S1

Placer_Trocart

Aucune

AmpliProfil_inclinaison_craniale*
Trocart_inclinaison_droite*
Trocart_nonInsere

(O_outil_vueRadio O_vueRadioFace)
O_vueRadioFace

S3-S2

Controle_Face

Trocart_translation_droite Trocart_translation_anterieure

AmpliProfil_inclinaison_craniale
Trocart_nonInsere

(O_outil_vue3D O_vue3D)
O_manipReglage_1

S4-S3

Impacter_Trocart

Trocart_translation_droite Trocart_translation_anterieure Trocart_translation_caudale

AmpliProfil_inclinaison_craniale
Trocart_nonInsere

O_manipReglage
O_vueRadioFace

* Dernier état connu du fluoroscope et du trocart. **Suffixe traduisant une fixation prolongée relativement au domaine.

On peut remarquer que le dernier état connu de tous les outils est rapporté d’une séquence à l’autre. En effet, dans l’exemple du tableau, le dernier état connu du fluoroscope ainsi que le dernier état connu du trocart sont mentionnés dans la séquence sémantique S2-S1, même si la séquence ne rapporte aucune manipulation de ce dernier entre S1 et S2.

De plus, si cela est jugé nécessaire dans les traitements visés, l’opérateur permet aussi de caractériser les perceptions visuelles sur la base de leur durée en visualisations brèves, normales ou prolongées. Dans ce travail, le seuil pour une visualisation brève est de moins de 200 millisecondes ; pour une visualisation normale, entre 200 millisecondes et 2 secondes ; et pour une visualisation longue, au-delà de 2 secondes. Ces seuils sont dépendants du domaine. Ils ont été déterminés à partir de l’observation de la conduite d’une opération par un chirurgien expert en situation réelle et l’interview de cet expert, après l’opération, sur son comportement lié aux perceptions visuelles.

8.1. L’opérateur d’annotation

L’opérateur d’annotation ou « annotateur » permet d’intégrer automatiquement des évaluations calculées à partir de règles expertes dans les séquences perceptivo-gestuelles et de produire des séquences perceptivo-gestuelles enrichies.

Dans le cas de TELEOS, des évaluations, appelées variables de situation, sont calculées à partir de règles expertes tout au long d’une session de simulation (Chieu et al., 2010). Chaque variable de situation évalue une action ou un groupe d’actions ; plusieurs variables de situation peuvent évaluer une même action ou un même groupe d’actions.

Figure 12 • Schéma de l’opération d’annotation des séquences dans TELEOS

Tel que schématisé dans la Figure 12, l’annotateur reçoit en entrée les séquences sémantisées et les variables de situation calculées au cours d’une session de simulation. L’annotateur identifie ensuite les séquences pour lesquelles elles ont été calculées et les intègre dans ces séquences sous forme d’itemsets.

9. Expérimentations

Notre proposition de formalisation des séquences perceptivo-gestuelles a été de représenter celles-ci sous forme d’itemsets. Chaque itemset regroupe des items de différentes modalités ayant été identifiés comme cooccurrents. Les séquences sont étendues avec les interactions du STI en réponse à l’activité de l’apprenant. Il s’agit concrètement d’intégrer dans ces séquences les états de la simulation et les évaluations des actions de l’apprenant générées par le STI.

Nous avons émis l’hypothèse (H1) : « l’intégration des interactions multimodales de l’apprenant dans des séquences perceptivo-gestuelles améliore la précision de l’analyse de ses activités dans un contexte d’apprentissage ». Nous évaluons cette hypothèse dans cette première partie de nos expérimentations. Les questions de recherche conduisant notre démarche expérimentale pour cette première partie sont les suivantes :

QR1 : La représentation multimodale des interactions de l’apprenant est-elle pertinente d’un point de vue didactique ?

QR2 : Quelle est la cohérence entre les actions/gestes de l’apprenant et ses perceptions ?

Les réponses recherchées visent à estimer l’intérêt de cette proposition et, par là même, l’utilité générale du framework PeTRA proposé pour l’implémenter. En effet, les questions précédentes nous conduisent à celles de l’implémentation du modèle et à la possibilité de l’analyser et de l’exploiter. Elles nous mènent, plus spécifiquement, à celles de l’efficacité des outils proposés pour prendre en charge ces traitements.

QR3 : Les outils proposés permettent-ils d’implémenter le modèle proposé ?

QR4 : Les outils proposés permettent-ils de modéliser l’activité de l’apprenant en intégrant les différentes facettes de ses interactions ?

Ces questions sous-tendent l’hypothèse (H2) stipulant que « l’implémentation du modèle de représentation avec les outils informatiques proposés permet de structurer le traitement et l’analyse de l’activité de l’apprenant en adéquation avec la nature perceptivo-gestuelle de ses connaissances ».

9.1. Méthodologie

Pour l’évaluation des hypothèses formulées (H1 et H2), nous mettons à l’épreuve, dans notre cas d’étude, la possibilité d’analyser le rapprochement entre les erreurs des internes et leurs perceptions visuelles, représentées dans les séquences perceptivo-gestuelles selon le modèle proposé. Tout le processus de traitement des traces a été réalisé avec le framework PeTRA. Une présentation détaillée du framework PeTRA peut être retrouvée dans les articles suivants : (Toussaint et al., 2015a), (Toussaint et al., 2015b). Pour pouvoir analyser le rapprochement entre les différentes parties de l’activité multimodale des internes, nous avons utilisé l’opérateur d’analyse du parcours de résolution du framework PeTRA.

Le parcours de résolution ciblé intègre trois types de comportements qui constituent les points de décisions définissant le parcours de l’apprenant au cours d’une simulation. Pour rappel, la vertébroplastie se réalise en trois phases et le STI TELEOS permet à l’apprenant de circuler librement entre les phases. En effet, l’apprenant peut choisir de commencer par n’importe quelle phase et peut revenir sur des phases déjà considérées comme validées s’il le souhaite. Dans le parcours qu’il définit ainsi tout au long d’une session de simulation, nous identifions (1) les validations de phase, (2) les retours sur phase et (3) les actions correctives. Les validations de phase sont définies par la décision de passer à la phase suivante ; les retours sur phase sont définis par les passages à une phase antérieure motivés par une erreur de validation identifiée par l’apprenant ; enfin, les actions correctives constituent toutes les actions effectuées lors d’un retour sur phase dans le but de corriger l’erreur de validation identifiée.

9.2. Protocole et données

Les traces utilisées pour cette étude proviennent de 9 sessions de simulation de vertébroplastie réalisées par 5 internes et 1 chirurgien expert du département d’Orthopédie Traumatologie du CHU de Grenoble. Hormis l’expert aucun des sujets n’avait utilisé le simulateur auparavant. Les exercices de simulation consistaient à traiter une fracture de la 11e et/ou 12e vertèbre thoracique. Avant de commencer, chaque sujet a visionné une vidéo de présentation du simulateur puis effectué une session de prise en main. Le Tableau 3 détaille les données recueillies et traitées.

Tableau 3 • Traces collectées et traitées

Profil

N° Session

#Traces brutes

#Séq. p-g enrichies

#Visualisations

#VS incorrectes

#Erreurs validation

#Séq. correction

Interne

S01

2702

113

2033

750

9

11

Interne

S02

1636

37

885

178

4

4

Interne

S03

1118

33

690

208

3

5

Interne

S04

5107

128

2482

644

10

39

S05

1677

41

858

174

6

10

Expert

S06

3432

59

1452

249

4

31

S07

1828

47

1040

239

5

9

Interne

S08

5068

117

2514

644

20

36

S09

1496

41

869

193

4

22

Le symbole « # » fait référence à « nombre », l’abréviation « p-g » désigne l’adjectif perceptivo-gestuelle et « VS », les mots variables de situation.

Les métadonnées présentées dans le tableau sous les rubriques « profil », « N° Session » et « Vertèbre opérée » ont été notées manuellement au cours de la collecte de données. Les autres caractéristiques ont été obtenues automatiquement avec l’opérateur d’analyse statistique appliqué dans un premier temps sur l’ensemble des traces brutes. Cette opération a permis le décompte du nombre de traces par session, toutes sources confondues. Autrement dit, la rubrique « Traces brutes » présente le nombre total d’interactions enregistrées par les trois sources : l’interface de simulation, l’oculomètre et le bras haptique.

Dans un second temps l’opérateur d’analyse statistique a été appliqué aux séquences perceptivo-gestuelles enrichies. Ces séquences sont celles obtenues après le passage, sur les traces brutes, des opérateurs de nettoyage, de filtrage, de fusion, de sémantisation et d’annotation. Le nombre de traces brutes ne présume pas du nombre de séquences enrichies qui vont être générées. En effet, les volumes de traces générées au cours d’une session sont grandement influencés par l’utilisation du bras haptique et le comportement lié aux perceptions visuelles. Par exemple, une utilisation intensive du bras haptique, de nombreuses visualisations et peu d’actions ponctuelles vont générer beaucoup de traces brutes. Par contre, peu de séquences perceptivo-gestuelles vont être générées à partir de ces traces. En effet, les interactions perceptuelles et gestuelles sont fusionnées avec les actions ponctuelles auxquelles elles se rapportent. Cela explique par exemple, l’écart entre les volumes de traces brutes des sessions S01 et S08 (soit, respectivement, 2702 et 5068) et la proximité de leurs volumes de séquences enrichies (soit 113 et 117).

Dans un deuxième temps, l’opérateur de parcours de résolution est appliqué aux séquences perceptivo-gestuelles enrichies. Il identifie les variables de situation notées incorrectes, les erreurs de validation et les séquences de correction. Pour rappel, les variables de situation sont les évaluations à base de règles expertes effectuées par le module de diagnostic du STI ; les erreurs de validation sont assimilées aux retours sur phase motivés par des validations de phase erronées ; et les séquences de correction se réfèrent aux interactions enregistrées au cours des retours sur phase. L’opérateur d’analyse statistique appliqué ensuite décompte ces éléments pour chaque session, ainsi que le nombre de visualisations totales enregistrées.

9.3. Résultats

Le nombre de séquences variant beaucoup d’une session à l’autre, nous utilisons le nombre moyen de visualisations par séquence qui traduit mieux la tendance des analyses visuelles que le simple nombre des visualisations. Il en va de même pour les variables de situation incorrectes. Nous nous intéressons au nombre d’erreurs de validation commises dans une session, le nombre d’actions consacrées à la correction de ces erreurs ainsi que les perceptions liées à ces actions de correction.

Le graphique de la Figure 13 résume la distribution des visualisations (perceptions), des variables de situation incorrectes et des erreurs de validation. La session avec la plus grande moyenne de visualisations (24,6) rapporte 19% de variables de situation incorrectes en moins que les autres. On peut constater la même relation entre les analyses visuelles et les erreurs de validation pour l’ensemble des sessions étudiées, excepté pour la session S08. En effet, cette session rapporte une forte moyenne d’analyses visuelles (21,5) et néanmoins beaucoup d’erreurs de validation (20). Cela s’explique par le fait que le sujet exécute à la fois peu d’actions de correction et très peu d’analyses visuelles pour supporter ces actions. En effet, dans le graphique de la Figure 14, on constate que cette session a une faible moyenne de séquences liées à des corrections (1,8) lors d’un retour sur phase, couplée à la plus faible moyenne de visualisations de la série (15,5) pour ces corrections.

En comparaison, la session S02 (cf. Figure 14) rapporte la plus faible moyenne d’actions de corrections (1,0), mais suffisamment d’analyses visuelles (20,5) pour consolider les décisions de validation et limiter les erreurs (4, cf. Figure 13).

De plus, on peut constater sur la Figure 15 qu’une faible part des visualisations de la session S08 est dédiée à des analyses visuelles de contrôle (7,7 contre 13,8 pour les visualisations liées à l’exploration). La session S09 a été réalisée par le même sujet, mais on observe moins d’erreurs de validation et moins de variables de situation incorrectes, car tout en ayant sensiblement le même taux de visualisations, son comportement lié aux analyses visuelles s’est inversé et il consacre plus d’actions à la correction des erreurs.

Figure 13 • Histogramme des variables de situation incorrectes, visualisations et erreurs de validation

Figure 14 • Histogramme des séquences liées à une correction et des visualisations accompagnant ces séquences

Figure 15 • Histogramme des visualisations de contrôle et d’exploration

9.4. Analyses

Le modèle de représentation proposé, implémenté à l’aide des opérateurs du framework PeTRA, a permis de représenter de manière cohérente des séquences d’interactions où des connaissances perceptivo-gestuelles sont mises en jeu.

Les résultats obtenus ont révélé une influence forte du comportement relatif aux analyses visuelles sur les erreurs commises au cours d’une session de simulation. Ces résultats vont dans le sens de l’hypothèse (H1) selon laquelle les différentes facettes des interactions apportent des précisions intéressantes à l’activité de l’apprenant. En effet, ils répondent aux questions de recherche QR1 (« La représentation multimodale des interactions de l’apprenant est-elle pertinente d’un point de vue didactique ? ») et QR2, (« Quelle est la cohérence entre les actions/gestes de l’apprenant et ses perceptions ? »). De plus, ces résultats ont permis de démontrer que les comportements de l’apprenant liés aux perceptions visuelles pouvaient être analysés de manière pertinente à partir des séquences représentées selon le modèle proposé. Ils ont permis d’estimer l’intérêt du modèle mais aussi la capacité du framework PeTRA proposé pour sa réification.

Les expérimentations avaient en effet pour but, également, d’évaluer l’hypothèse H2 sur la capacité des outils proposés à réifier notre modèle et faciliter l’analyse des connaissances perceptivo-gestuelles de l’apprenant. Les résultats obtenus adressent les questions de recherche sous-jacentes, QR3 (« Les outils proposés permettent-ils d’implémenter le modèle proposé ? ») et QR4 (« Les outils proposés, permettent-ils de modéliser l’activité de l’apprenant en intégrant les différentes facettes de ses interactions ? »). En l’occurrence, les outils proposés ont permis d’obtenir, à partir des traces brutes multi-sources et hétérogènes, les séquences perceptivo-gestuelles nécessaires à l’analyse des interactions multimodales de l’apprenant.

10. Conclusion

Les connaissances perceptuelles et gestuelles sont difficiles à capter dans les EIAH, notamment parce que cela implique l’utilisation de plusieurs périphériques produisant des traces hétérogènes difficiles à traiter dans un objectif d’analyse de l’activité d’apprentissage. Nous avons présenté dans cet article notre méthodologie pour la capture et le traitement de traces perceptuelles et gestuelles produites sur TELEOS, un Système Tutoriel Intelligent dédié à la chirurgie orthopédique percutanée. Le modèle de représentation proposé, implémenté avec l’aide des opérateurs du framework PeTRA, a permis de représenter de manière cohérente des séquences d’interactions où des connaissances perceptivo-gestuelles sont mises en jeu. En effet, l’expérimentation décrite a démontré que les comportements de l’apprenant liés aux perceptions visuelles pouvaient être analysés de manière pertinente à partir des séquences ainsi représentées. Les résultats obtenus ont révélé une influence forte du comportement relatif aux analyses visuelles sur les erreurs commises au cours d’une session de simulation. Ces résultats vont donc dans le sens de l’hypothèse selon laquelle les différentes facettes des interactions apportent des précisions intéressantes à l’activité de l’apprenant.

Néanmoins, l’analyse de l’activité de l’apprenant à partir de son parcours de résolution demande un travail préalable de description des éléments du parcours à identifier. Il s’agit de la description des validations de phase, des retours sur phase et des actions correctives, ou de tout autre comportement significatif que l’on voudrait identifier dans le parcours de résolution d’un exercice par l’apprenant. Ceci constitue une limite pour laquelle nous avons proposé une piste de solution dans le cadre d’une étude exploratoire sur la possibilité de détecter de manière automatique les interactions significatives de l’apprenant (Toussaint et al., 2014). Par ailleurs, les séquences représentées selon le modèle décrit dans cet article ont été exploitées à des fins d’extraction d’éléments de connaissances perceptivo-gestuelles par des algorithmes de fouille de données (Toussaint et Luengo, 2015).

Les solutions proposées, adressant la problématique de la représentation et de l’analyse des interactions perceptivo-gestuelles de l’apprenant, se focalisent sur le diagnostic comportemental de celui-ci. Le diagnostic épistémique, à partir des nouveaux résultats obtenus sur la modélisation des connaissances perceptivo-gestuelles, n’a pas été exploré. La perspective en ce sens consiste à mettre en place une évaluation des résultats obtenus du point de vue du diagnostic épistémique des connaissances de l’apprenant.

À propos des auteurs

Ben-Manson TOUSSAINT est enseignant-chercheur à l’Ecole Supérieure d’Infotronique d’Haïti où il dirige également le jeune laboratoire de recherche en Simulation Télécommunications et Réalité virtuelle (SITERE). Ses intérêts de recherche portent sur les Systèmes Tutoriels Intelligents, la modélisation de connaissances perceptivo-gestuelles, la modélisation de connaissances pour les domaines mal-définis et le Data Mining éducationnel.

Adresse : Laboratoire SITERE-ESIH, 29, Deuxième ruelle Nazon, Route de Bourdon, HT6110 Port-au-Prince, Haïti

Courriel : BenManson.Toussaint@esih.edu

Toile : http://sitere.science

Vanda Luengo est Professeure à l’Université Pierre et Marie Curie (Paris 6). Ses intérêts de recherche portent sur les systèmes décisionnels pour l’analyse de données hétérogènes dans les domaines mal-définis (en particulier pour la formation professionnelle) et la proposition de rétroactions épistémiques adaptatives.
Elle est actuellement responsable du projet national français HUBBLE (HUman oBservatory Based on anaLysis of e-LEarning traces) associant huit équipes de recherche françaises en éducation et en informatique avec l’objectif de partager et mutualiser des données provenant de l’e-learning et des algorithmes pour le traitement de ces données.

Adresse : Equipe MoCAH- Laboratoire LIP6, Campus Jussieu, 4 place Jussieu, 75252 PARIS cedex 05

Courriel : Vanda.Luengo@lip6.fr

Toile : http://www-desir.lip6.fr/~luengo/

Francis Jambon est Maître de Conférences à l’Université Grenoble Alpes. Il est membre du Laboratoire d'Informatique de Grenoble (LIG - UMR 5217). Ses travaux portent de manière générale sur l'analyse automatisée de l'activité humaine. Ils ont été appliqués à l’étude des déplacements des individus et aux Environnements Informatisés pour l’Apprentissage Humain. Dans cette dernière thématique, les travaux menés actuellement s'intéressent plus particulièrement à l'utilisation des traces de perception (oculométrie) et d’action pour la reconnaissance de patterns d'activité.

Adresse : LIG, Bâtiment IMAG, CS 40700, 38058 Grenoble cedex 9, France

Courriel : Francis.Jambon@imag.fr

Toile : http://membres-liglab.imag.fr/jambon

BIBLIOGRAPHIE

AGRAWAL, R. et SRIKANT, R. (1994). Fast algorithms for mining association rules in large databases. Dans Proceedings of the 20th International Conference on Very Large Data Bases (VLDB '94) (p. 487–499). Disponible sur internet.

AMERSHI, S. et CONATI, C. (2007). Unsupervised and supervised machine learning in user modeling for intelligent learning environments. Dans Proceedings of the 12th international conference on Intelligent User Interfaces (p. 72–81). ACM Press. Disponible sur internet.

BALACHEFF, N. (2013). cK¢, a model to reason on learners' conceptions. Dans Proceedings of the 35th annual meeting of the North American Chapter of the International Group for the Psychology of Mathematics Education (PME-NA) (p. 2–15). Disponible sur internet.

BECK, J. (2007). Difficulties in inferring student knowledge from observations (and why you should care). Dans Educational Data Mining: supplementary proceedings of the 13th International Conference of Artificial Intelligence in Education (p. 21–30).

CEAUX, E., VADCARD, L., DUBOIS, M. et LUENGO V. (2009). Designing a learning environment in percutaneous surgery: models of knowledge, gesture, and learning situations. Communication présentée à EARLI Symposium Simulation-Based Learning: Analyzing and Fostering Complex Skills in the Context of Medical Education, Amsterdam, Netherlands.

CHIEU, V. M., LUENGO, V. et VADCARD, L. (2010). Student Modeling in Orthopedic Surgery Training: Exploiting Symbiosis between Temporal Bayesian Networks and Fine-grained Didactical Analysis. International Journal of Artificial Intelligence in Education, 20(3), 269–301.

CONATI, C. et MERTEN, C. (2007). Eye-tracking for user modeling in exploratory learning environments: an empirical evaluation. Knowledge Based Systems, 20(6), 557–574.

D'MELLO, S., OLNEY, A., WILLIAMS, C. et HAYS, P. (2012). Gaze tutor: a gaze-reactive intelligent tutoring system. International Journal of Human-Computer Studies, 70(5), 377–398.

FOURNIER-VIGER, P., NKAMBOU, R., MAYERS, A., MEPHU NGUIFO, E. et FAGHIHI, U. (2011). An hybrid expert model to support tutoring services in robotic arm manipulations. Dans Proceedings of the 10th Mexican International Conference on Artificial Intelligence (LNCS 7094, p. 478–489). Berlin, Allemagne : Springer.

GUERAUD, V., PERNIN, J.-P., CAGNAT, J.-M. et CORTES G. (1999). Environnements d’apprentissage basés sur la simulation : outils-auteur et expérimentations. Revue Sciences et Techniques Educatives, numéro spécial « Simulation et formation professionnelle dans l'industrie », 6(1), 95–141.

JAMBON, F. et LUENGO, V. (2012). Analyse oculométrique « on-line » avec zones d’intérêt dynamiques : application aux environnements d’apprentissage sur simulateur. Dans Actes de la Conférence Ergonomie et Interaction Homme-Machine (Ergo’IHM 2012), Nouvelles interactions, créativité et usages (p. 4–11).

LACH, P. (2013). Intelligent tutoring systems measuring student’s effort during assessment. Dans Proceedings of the Canadian Conference on Artificial Intelligence - Advances in Artificial Intelligence (LNCS 7884, p. 346–351). Berlin, Allemagne : Springer.

LUENGO, V., LARCHER, A. et TONETTI, J. (2011). Design and implementation of a visual and haptic simulator in a platform for a TEL system in percutaneous orthopedic surgery. Dans Proceedings of the 18th International Conference Medicine Meets Virtual Reality (MMVR 2011) (p. 324–328).

LUENGO, V., VADCARD, L., TONETTI, J. et DUBOIS, M. (2011). Diagnostic des connaissances et rétroaction épistémique adaptative en chirurgie. Revue d'Intelligence Artificielle, 25(4), 499–524.

MANDRAN, N., ORTEGA, M., LUENGO, V. et BOUHINEAU, D. (2015). DOP8_Cycle: Merging both data and analysis operators’ life cycles for Technology Enhanced Learning. Dans Proceedings of the 5th International Conference on Learning Analytics and Knowledge (LAK ’15) (p. 213–217). New York, NY : ACM.

MATHEWS, M., MITROVIC, A., LIN, B., HOLLAND, J. et CHURCHER, N. (2012). Do Your Eyes Give It Away? Using Eye-Tracking Data to Understand Students’ Attitudes towards Open Student Model Representations. Dans Proceedings of the International Conference on Intelligent Tutoring Systems (LNCS 7315, p. 422–427). Berlin, Allemagne : Springer.

MULGUND, S. S., ASDIGHA, M., ZACHARIAS, G. L., KRISHNA-KUMAR, K. et DOHME, J. A. (1995). Intelligent tutoring system for simulator-based helicopter flight training. Dans Proceedings of the Flight Simulation Technologies Conference (p. 121–129).

PAQUETTE, L., LEBEAU, J. F., BEAULIEU, G. et MAYERS, A. (2012). Automating next-step hints generation using ASTUS. Dans Proceedings of the International Conference on Intelligent Tutoring Systems (LNCS 7315, p. 201–211). Berlin, Allemagne : Springer.

REMOLINA, E., RAMACHANDRAN, S., FU, D., STOTTLER, R. et HOWSE, W. R. (2004). Intelligent simulation-based tutor for flight training. Dans Proceedings of the Interservice/Industry Training, Simulation, and Education Conference (I/ITSEC) (p. 1–13).

RÍOS, H. V., SOLÍS, A. L., AGUIRRE, E., GUERRERO, L., PEÑA, J. et SANTAMARÍA, A. (2000). Facial expression recognition and modeling for virtual intelligent tutoring systems. Dans Proceedings of the Mexican International Conference on Artificial Intelligence Advances in Artificial Intelligence (MICAI 2000) (LNCS 1793, p. 115–126). Berlin, Allemagne : Springer.

STEICHEN, B., CARENINI, G. et CONATI, C. (2013). User-adaptive information visualization: using eye gaze data to infer visualization tasks and user cognitive abilities. Dans Proceedings of the International Conference on Intelligent User Interfaces (p. 317–328). New York, NY : ACM.

TOUSSAINT, B.-M. (2015). Apprentissage automatique à partir de traces multi-sources hétérogènes pour la modélisation de connaissances perceptivo-gestuelles (Thèse de doctorat, Université Grenoble Alpes, France). Disponible sur internet (consulté le 2 février 2016).

TOUSSAINT, B.-M., LUENGO, V. et TONETTI, J. (2014). Towards using similarity measure for automatic detection of significant behaviors from continuous data. Dans Proceedings of the 7th International Conference on Educational Data Mining (EDM 2014) (p. 427–428). Disponible sur internet.

TOUSSAINT, B.-M., LUENGO, V. et JAMBON, F. (2015). Proposition d’un framework de traitement de traces pour l’analyse de connaissances perceptivo-gestuelles. Le cas de la chirurgie orthopédique percutanée. Dans Actes de la 7e édition de la Conférence sur les Environnements Informatiques pour l'Apprentissage Humain (EIAH 2015) (p. 222–233). Disponoble sur internet.

TOUSSAINT, B.-M., LUENGO, V., JAMBON, F. et TONETTI, J. (2015b). From heterogeneous multisource traces to perceptual-gestural sequences: The PeTra treatment approach. Dans Proceedings of the 17th International Conference on Artificial Intelligence in Education (AIED 2015) (LNCS 9112, p. 480–491). Berlin, Allemagne : Springer.

TOUSSAINT, B.-M. et LUENGO, V. (2015). Mining surgery phase-related sequential rules from vertebroplasty simulations traces. Dans Proceedings of the 15th International Conference on Artificial Intelligence in Medicine (AIME 2015) (LNCS 9105, p. 32–41). Berlin, Allemagne : Springer.

VADCARD, L., TONETTI, J. et DUBOIS, M. (2011). Transmission de l'expérience en chirurgie orthopédique percutanée. Travail et Apprentissages, 6, 77-92.

WEEVERS, I., KUIPERS, J., BRUGMAN, A. O., ZWIERS, J., VAN DIJK, E. et NIJHOLT, A. (2003). The virtual driving instructor, creating awareness in a multi-agent system. Dans Proceedings of the 16th Canadian Society for Computational Studies of Intelligence Conference on Advances in Artificial Intelligence (p. 596–602). Berlin, Allemagne : Springer.

DE WINTER, J., DE GROOT, S., DANKELMAN, J., WIERINGA, P., VAN PAASSEN, M. M. et MULDER, M. (2008). Advancing simulation-based driver training: Lessons learned and future perspectives. Dans Proceedings of the 10th International Conference on Human Computer Interaction with Mobile Devices and Services (p. 459–464). New York, NY : ACM.

 

 
Référence de l'article :
Ben-Manson TOUSSAINT, Vanda LUENGO, Francis JAMBON, Analyse de connaissances perceptivo-gestuelles dans un Système Tutoriel Intelligent, Revue STICEF, Volume 24, numéro 1, 2017, DOI:10.23709/sticef.24.1.9, ISSN : 1764-7223, mis en ligne le 05/06/2017, http://sticef.org
[Retour en haut de cette page] Haut de la page
Mise à jour du 5/06/17