Christel Bidet-Ildei
Université de Poitiers, Université de Tours ; Centre National de la Recherche Scientifique ; Centre de Recherches sur la Cognition et l’Apprentissage (UMR 7295)
Christel.bidet@univ-poitiers.fr
Les effets bénéfiques de l’observation des actions d’autrui sont largement reconnus pour l’optimisation de la performance et la rééducation (e.g., Gatti et al., 2013). Cependant, la majorité de ces paradigmes se basent sur de l’observation d’action réelles ou de vidéos mais très peu sur l’utilisation de séquences animées représentant les articulations en mouvement (Technique du point-light display, PLD, Johansson, 1973). Comparativement à la vidéo, cette technique du PLD permet notamment d’isoler les informations spatiales et ou dynamiques relatives au mouvement facilitant ainsi la compréhension de leur rôle. Toutefois, la création des PLD est parfois difficile, limitant ainsi leur utilisation (Decatoire et al., 2018). En particulier, la non standardisation des procédures de capture et de restitution ainsi que de la complexité des calculs nécessaires pour réaliser des modifications de séquences la restreignait jusqu’à aujourd’hui à une utilisation très spécifique principalement en milieu académique.
Pour répondre à cette problématique, nous avons créé en partenariat avec des collègues de l’institut PPRIME (UPR 3346) et du laboratoire XLIM (UMR 7348) de Poitiers, PLAViMoP, une plateforme de visualisation et de modification de séquences animées.
Cette plateforme comprend tout d’abord une base de données (voir Figure 1) accessible en ligne (https://plavimop.prd.fr/fr/motions) regroupant plus de deux cents séquences animées représentant des actions humaines ou non humaines (par exemple robotique) et regroupant des gestes de la vie quotidienne (boire, manger, etc.), des gestes sportifs (swing au golf, coup de pied au karaté, etc.), des expressions faciales émotionnelles (joie, colère, dégoût, etc.) ou encore des interactions entre deux individus (se dire bonjour, se battre, etc.). Un moteur de recherche associé à la base permet de retrouver rapidement les séquences d’intérêt et d’avoir accès à une miniature représentant la/les actions sélectionnées. Un descriptif des conditions d’acquisition (fréquence d’échantillonnage, nombre de marqueurs, etc.) ainsi qu’un taux de reconnaissance est associé à chaque séquence. Chaque séquence animée est ensuite téléchargeable en format c3d ou mp4.
Figure 1 : Capture d’écran représentant la base de données de PLAViMoP accessible à https://plavimop.prd.fr/fr/motions. A gauche le moteur de recherche permettant de trier les mouvements en fonction de différents critères. A droite, miniatures des mouvements disponibles dans la base de données.
Par ailleurs, PLAViMoP comprend également un logiciel (https://plavimop.prd.fr/fr/software), permettant de visualiser et de modifier des séquences animées. Entre autres, via une interface très simple d’utilisation (voir Figure 2), l’utilisateur pourra modifier les paramètres spatiaux et cinématiques du geste et ajouter des masques. Les modifications sont instantanément visibles sur la fenêtre de visualisation et peuvent être enregistrées en tant que nouvelle séquence sous format c3d ou avi.
Figure 2 : Interface du logiciel PLAViMoP. A gauche, boite de dialogue permettant d’accéder aux différentes transformations de la séquence. A droite, fenêtre de visualisation de la séquence (basée sur le logiciel libre Mokka, Barre & Armand, 2014). Les modifications apportées se voient instantanément dans la fenêtre de visualisation et peuvent ensuite être enregistrées sous un format c3d ou avi.
PLAViMoP s’adresse donc à des scientifiques intéressés par les mécanismes impliqués lors de la perception des mouvements humains. Elle a ainsi déjà été utilisée dans le cadre de la thèse de Sophie-Anne Beauprez (2015-2018) pour étudier l’influence de la cinématique et de l’orientation du geste dans les liens existants entre action et langage (Beauprez & Bidet-Ildei, 2018). Cependant, l’automaticité et la simplicité d’accès aux fonctionnalités devraient permettre une utilisation par des professionnels (enseignants Activités physiques adaptées, ergothérapeute, psychomotricien, enseignants EPS, entraîneur, etc.) dans le milieu sportif ou la rééducation. Des projets de terrain visant à tester son utilisation pour les apprentissages moteurs ou la rééducation de troubles moteurs périphériques (arthroplastie du genou) sont actuellement en cours et donnent des résultats prometteurs.
Enfin, PLAViMoP est collaborative puisque chaque utilisateur peut déposer de nouvelles séquences animées et contribuer à proposer de nouvelles fonctionnalités via la fonction plug-in du logiciel. Elle est donc destinée à s’enrichir au fur et à mesure des contributions avec pour objectif de devenir la première plateforme en ligne de partage de séquences animées. N’hésitez donc pas à vous inscrire et à contribuer !
Mots Clés :
Psychologie, Apprentissage, Perception visuelle, Rééducation, Point-light display, Entrainement sportif.
Références :
Pour accéder à la plateforme : https://plavimop.prd.fr/fr/
Barre, A., & Armand, S. (2014). Biomechanical ToolKit: Open-source framework to visualize and process biomechanical data. Computer Methods and Programs in Biomedicine, 114(1), 80–87. https://doi.org/10.1016/j.cmpb.2014.01.012
Beauprez, S.-A., & Bidet-Ildei, C. (2018). The kinematics, not the orientation, of an action influences language processing. Journal of Experimental Psychology. Human Perception and Performance. https://doi.org/10.1037/xhp0000568
Decatoire, A., Beauprez, S. A., Pylouster, J., Lacouture, P., Blandin, Y., & Bidet-Ildei, C. (2018). PLAViMoP: How to standardize and simplify the use of point-light displays. Behavior Research Methods. https://doi.org/10.3758/s13428-018-1112-x
Gatti, R., Tettamanti, A., Gough, P. M., Riboldi, E., Marinoni, L., & Buccino, G. (2013). Action observation versus motor imagery in learning a complex motor task: a short review of literature and a kinematics study. Neuroscience Letters, 540, 37–42. https://doi.org/10.1016/j.neulet.2012.11.039
Johansson, G. (1973). Visual perception of biological motion and a model for its analysis. Perception & Psychophysics, 14, 201–211.
Biographie de l’auteur :
Christel Bidet-Ildei est enseignant-chercheur à la Faculté des sciences du sport de l’Université de Poitiers et responsable de l’équipe Exercice, Sensorimotricité, Cognition (EXSECO) du Centre de Recherches sur la Cognition et l’Apprentissage (UMR 7295). Ses thématiques de recherche portent sur la compréhension du rôle du système moteur lors de l’observation d’action ainsi que sur les liens existants entre l’action, la perception et la compréhension du langage.
*Point-Light Action Visualization and Modification Platform