[{"authors":["Ivan Serra Moncadas","Antoine Lestrade","Nicolas Wenk","Benoit Le Callennec"],"content":" Le Motion-Lab @ HE-Arc est un environnement de pointe dédié à la capture 3D du mouvement humain.\nMission # Le Motion-Lab @ HE-Arc fournit des solutions innovantes pour l’étude du mouvement humain 3D dans divers contextes comme le sport, la réhabilitation, l\u0026rsquo;ergonomie, l\u0026rsquo;animation 3D ainsi que la réalité virtuelle. Grâce à son équipement technologique de pointe, le Motion-Lab @ HE-Arc permet d\u0026rsquo;acquérir le mouvement 3D avec une très grande précision.\nServices et collaborations # Le Motion-Lab @ offre un environnement d’expérimentation complet, allant de la capture à la visualisation interactive des données 3D, en intégrant des approches issues de l’ingénierie, des sciences biomédicales et des arts visuels.\nRecherche appliquée # Le laboratoire encourage les projets interdisciplinaires réunissant chercheurs, cliniciens, ingénieurs et artistes. Ces collaborations permettent de développer et de valider de nouvelles méthodologies dans des domaines tels que :\nl’analyse biomécanique et la réhabilitation, la modélisation 3D du geste sportif, la création d’avatars réalistes pour les environnements virtuels, ou encore la reconstruction et la simulation temps réel de mouvements humains complexes. Expertise # Le Motion-Lab @ HE-Arc propose un accompagnement scientifique et technique à ses partenaires :\nacquisition et traitement de données de mouvement 3D, développement d’outils logiciels dédiés à la visualisation et à l’interprétation des gestes, intégration de la capture de mouvement dans des chaînes de production 3D ou de réalité mixte, conseil et formation dans les domaines de la motion capture, et de la reconstruction 3D. Innovation et transfert # En s’appuyant sur des technologies de pointe (OptiTrack, Azure Kinect, HoloLens, Machine Learning), le Motion-Lab @ HE-Arc contribue à la transformation numérique des pratiques d’analyse du mouvement 3D. Il favorise le transfert de connaissances et de savoir-faire entre la recherche académique et les entreprises, dans une perspective d’innovation continue au service de la santé, du sport et de la création numérique.\nÉquipement et technologies # Le Motion-Lab @ HE-Arc est équipé de technologies avancées, et en particulier :\n16 caméras OptiTrack (2.2 MP, 360 fps) 6 capteurs Azure Kinect DK un casque Hololens 2 un tapis de course Maxxus runMaxx 9.1 Le Motion-Lab @ HE-Arc est en constante évolution, avec l’intégration régulière de nouvelles technologies pour répondre aux besoins de ses partenaires.\nContacts # Pour toute demande de collaboration, de service ou d’information, n’hésitez pas à contacter l’équipe du Motion-Lab @ HE-Arc :\nMotion-Lab @ HE-Arc : ING.motion-lab@he-arc.ch Prof. Benoit Le Callennec (directeur du Motion-Lab @ HE-Arc) : benoit.lecallennec@he-arc.ch Nous nous ferons un plaisir de discuter de vos projets et de vos besoins en matière de capture de mouvement 3D.\n","date":"2026","externalUrl":null,"permalink":"/pages/2025_motion-lab/","section":"Pages","tags":["Ra\u0026D","Sports \u0026 Rehabilitation","Animation 3D"],"title":"Motion-Lab @ HE-Arc","type":"pages"},{"authors":null,"content":" Motion-Lab @ HE-Arc Ivan Serra Moncadas ,\u0026nbsp; Antoine Lestrade ,\u0026nbsp; Nicolas Wenk ,\u0026nbsp; Benoit Le Callennec Ra\u0026amp;D Sports \u0026amp; Rehabilitation Animation 3D Base de données de MoCap Benoit Le Callennec Sujet TB Base De Données MoCap FishTank UE5 Benoit Le Callennec Sujet TB Tracking MoCap Génération de vignettes 3D Benoit Le Callennec Sujet TB Animation 3D Motion Capture Motion Machine Cloud Platform Benoit Le Callennec Sujet TB Cloud Animation 3D GIM3D : a pilot study of intuititve 3D motion control HMI (2025) Marine Capallera ,\u0026nbsp; Antoine Lestrade ,\u0026nbsp; Dimitri Kohler ,\u0026nbsp; Elena Mugellini ,\u0026nbsp; Benoit Le Callennec Ra\u0026amp;D Publication Sports \u0026amp; Rehabilitation Animation 3D GIM3D : Génération Intuitive de Mouvements 3D (2025) Dimitri Kohler ,\u0026nbsp; Antoine Lestrade ,\u0026nbsp; Benoit Le Callennec Ra\u0026amp;D Sports \u0026amp; Rehabilitation Animation 3D Foot 3D Scan (2024) Ivan Serra Moncadas ,\u0026nbsp; Benoit Le Callennec Ra\u0026amp;D Sports \u0026amp; Rehabilitation Reconstruction 3D GAPKO (2023) Christophe Müller ,\u0026nbsp; Benoit Le Callennec Ra\u0026amp;D Sports \u0026amp; Rehabilitation Markerless 3D Tracking ","date":"2026","externalUrl":null,"permalink":"/","section":"","tags":null,"title":"","type":"page"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/animation-3d/","section":"Tags","tags":null,"title":"Animation 3D","type":"tags"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/authors/","section":"Authors","tags":null,"title":"Authors","type":"authors"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/base-de-donn%C3%A9es/","section":"Tags","tags":null,"title":"Base De Données","type":"tags"},{"authors":["Benoit Le Callennec"],"content":" Le Motion-Lab @ HE-Arc est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain.\nLe but de ce projet est de mettre en place une Base de Données pour gérer des fichiers de capture de mouvements.\nContexte # Le Motion-Lab de la HE-Arc est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain. Il génère et stocke une grande quantité de fichiers de mouvements 3D, sous différents formats. L’objectif de ce projet est de concevoir une base de données robuste et une intégration Python permettant d’indexer, rechercher, filtrer et exploiter ces assets de manière fiable.\nObjectifs # Principaux # Faire un état de l’art des bases de données existantes et de leur conception. Évaluer leur intégration dans notre propre base de données. Il faudra en particulier vérifier les droits d’utilisation. Concevoir et implémenter une base de données structurée pour la gestion de fichiers Motion Capture (MoCap) provenant de différentes sources (Motion-Lab @ HE-Arc, CMU MoCap, etc.). Définir un modèle de données cohérent couvrant sources, projets, sessions, acteurs, takes, fichiers et métadonnées associées (avec licences d’utilisation, etc.). Mettre en place une intégration complète en Python permettant d’effectuer toutes les opérations et requêtes sur la base de données (voir SQLAlchemy ou similaires). Permettre la recherche et le filtrage multi-critères des données MoCap (format, acteur, session, framerate, tags, dates, etc.) depuis Python. Secondaires (à définir) # Implémenter un système d’import de fichier de MoCap 3D. On pourra utiliser des scripts, un formulaire ou une GUI en fonction de ce qui est le plus pertinent.\nDétecter et gérer les doublons de fichiers.\nPrévoir un mécanisme d’annotations et de tags pour enrichir les données.\nFournir des outils d’agrégation et de statistiques simples (inventaire, volumes, durées, formats).\nMettre en place des outils de visualisation et de classification des animations 3D.\nConcevoir, implémenter et intégrer une API web pour utiliser la base de données.\n","date":"2026","externalUrl":null,"permalink":"/pages/tb_mocap_db/","section":"Pages","tags":["Sujet TB","Base de données","MoCap"],"title":"Base de données de MoCap","type":"pages"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/authors/benoit-le-callennec/","section":"Authors","tags":null,"title":"Benoit Le Callennec","type":"authors"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/cloud/","section":"Tags","tags":null,"title":"Cloud","type":"tags"},{"authors":["Benoit Le Callennec"],"content":" Contexte # Le Motion-Lab @ HE-Arc est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain.\nL’objectif de ce projet est de concevoir et tracker un support léger (une paire de lunettes équipée de marqueurs) pour récupérer en temps réel la position de la tête d’un utilisateur. Ces données seront utilisées dans Unreal Engine pour contrôler la caméra et ajuster la perspective, offrant une sensation de profondeur et d’immersion 3D lorsque l’utilisateur se déplace devant l’écran.\nObjectifs principaux # Concevoir et calibrer un objet rigide (lunettes ou équivalent) pour le tracking de tête dans OptiTrack. Transmettre les données de position/orientation en temps réel vers Unreal Engine via Live Link. Contrôler la caméra dans Unreal Engine pour adapter la perspective aux mouvements réels de l’utilisateur. Objectifs secondaires # Créer une scène 3D permettant de démontrer clairement l’effet d’immersion. Implémenter le tracking avec une webcam seulement. Comparer les performances et la précision du tracking avec et sans marqueurs. ","date":"2026","externalUrl":null,"permalink":"/pages/tb_mocap_head_tracking/","section":"Pages","tags":["Sujet TB","Tracking","MoCap"],"title":"FishTank UE5","type":"pages"},{"authors":["Benoit Le Callennec"],"content":" Les fichiers BVH (Biovision Hierarchy) sont largement utilisés pour représenter des animations de motion capture sous forme de squelettes articulés.\nL’objectif de ce travail est de concevoir un pipeline autonome permettant de générer automatiquement des thumbnails animées à partir de fichiers BVH, afin de les afficher dans une page web.\nObjectifs # Principaux # Implémenter (ou intégrer si existant) le chargement de fichiers BVH. Afficher le fichier BVH. On pourra utiliser l’application existante (avec GeeXLab) comme exemple ou s’orienter, à choix, vers une autre technologie (OpenGL, WebGPU, etc.) si souhaité. Générer un image pour chaque interval de l’animation 3D. Générer un gif animé à partir de la séquence d’images générées. On pourra utiliser ffmpeg pour ça. Objectifs secondaires # Extraire et stocker des métadonnées utiles (durée, FPS, nombre de joints, hiérarchie).\nAméliorer le rendu pour proposer un résultat cohérent et lisible.\nGarantir un pipeline reproductible et automatisable.\nIntégrer le tout à Motion Machine, un package Python pour l’animation 3D.\n","date":"2026","externalUrl":null,"permalink":"/pages/tb_mocap_3d_tumbnails/","section":"Pages","tags":["Sujet TB","Animation 3D","Motion Capture"],"title":"Génération de vignettes 3D","type":"pages"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/mocap/","section":"Tags","tags":null,"title":"MoCap","type":"tags"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/motion-capture/","section":"Tags","tags":null,"title":"Motion Capture","type":"tags"},{"authors":["Benoit Le Callennec"],"content":" Le Motion-Lab @ HE-Arc est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain. Il repose sur l’utilisation de Motion Machine : un package Python offrant toutes les fonctionnalités relatives à l’animation de personnages 3D, de la gestion de la capture, au stockage, à la génération de mouvements et au streaming. Il existe déjà des intégrations de Motion Machine pour Unity et Unreal Engine.\nLe but de ce projet est de transformer Motion Machine en “AWS pour l’animation de personnages 3D”.\nObjectifs # Principaux # Concevoir une plateforme permettant d’héberger tous les services offerts par Motion Machine. Implémenter les APIs des services de Motion Machine avec FastAPI. Certains services comme le streaming d’animation, ou la génération de mouvements pourront servir d’exemples. Implémenter un système de gestion d’utilisateurs. Intégrer le tout comme un Dev Tool : tous les services doivent être accessibles grâce à une API en Python. Secondaires # Concevoir un portail web permettant de créer des utilisateurs, de vérifier ses privilèges, etc.\nImplémenter une interface administrateur pour gérer les différents services.\nImplémenter un dashboard pour monitorer l’état des différents services.\n","date":"2026","externalUrl":null,"permalink":"/pages/tb_moma_saas/","section":"Pages","tags":["Sujet TB","Cloud","Animation 3D"],"title":"Motion Machine Cloud Platform","type":"pages"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/pages/","section":"Pages","tags":null,"title":"Pages","type":"pages"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/sujet-tb/","section":"Tags","tags":null,"title":"Sujet TB","type":"tags"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/","section":"Tags","tags":null,"title":"Tags","type":"tags"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/tracking/","section":"Tags","tags":null,"title":"Tracking","type":"tags"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/authors/antoine-lestrade/","section":"Authors","tags":null,"title":"Antoine Lestrade","type":"authors"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/authors/ivan-serra-moncadas/","section":"Authors","tags":null,"title":"Ivan Serra Moncadas","type":"authors"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/authors/nicolas-wenk/","section":"Authors","tags":null,"title":"Nicolas Wenk","type":"authors"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/rad/","section":"Tags","tags":null,"title":"Ra\u0026D","type":"tags"},{"authors":null,"content":"","date":"2026","externalUrl":null,"permalink":"/tags/sports--rehabilitation/","section":"Tags","tags":null,"title":"Sports \u0026 Rehabilitation","type":"tags"},{"authors":null,"content":"","date":"2025","externalUrl":null,"permalink":"/authors/dimitri-kohler/","section":"Authors","tags":null,"title":"Dimitri Kohler","type":"authors"},{"authors":null,"content":"","date":"2025","externalUrl":null,"permalink":"/authors/elena-mugellini/","section":"Authors","tags":null,"title":"Elena Mugellini","type":"authors"},{"authors":["Marine Capallera","Antoine Lestrade","Dimitri Kohler","Elena Mugellini","Benoit Le Callennec"],"content":" In many fields such as sports training, rehabilitation, and virtual prototyping, the ability to communicate movement information rapidly, intuitively, and unambiguously is essential. In sports, a key challenge for coaches is conveying precise motion adjustments to athletes. This short paper introduces GIM3D, a user interface designed to enable fast and intuitive manipulation of 3D running movements generated. A pilot study with five participants shows a strong willingness to use the tool (F-SUS score = 85.5). The UEQ S resulted an overall average of 2, with higher pragmatic quality (2.35) than hedonic (1.65). Users found the tool supportive, clear, and efficient. Initial results demonstrate the efficiency and plausibility of the generated movements, highlighting the potential of GIM3D as a tool for both practitioners and researchers in human motion science.\nDans de nombreux domaines tels que l’entraînement sportif, la rééducation et le prototypage virtuel, il est essentiel de pouvoir communiquer des informations sur les mouvements rapidement, intuitivement et sans ambiguïté. Dans le domaine du sport, l’un des principaux défis pour les entraîneurs consiste à transmettre aux athlètes des ajustements précis de leurs mouvements. Cet article présente GIM3D, une interface utilisateur conçue pour permettre la manipulation rapide et intuitive de mouvements générés de course en 3D. Une étude pilote menée auprès de cinq participant·es montre une forte volonté d’utiliser l’outil (score F-SUS = 85,5). L’UEQ-S a donné une moyenne globale de 2, avec une qualité pragmatique (2,35) supérieure à la qualité hédonique (1,65). Les utilisateurs·trices ont trouvé l’outil utile, clair et efficace. Les premiers résultats dé montrent l’efficacité et la plausibilité des mouvements générés, soulignant le potentiel de GIM3D en tant qu’outil pour les praticien·es et les chercheurs·euses en science du mouvement humain.\n","date":"2025","externalUrl":null,"permalink":"/pages/2025_gim3d_paper/","section":"Pages","tags":["Ra\u0026D","Publication","Sports \u0026 Rehabilitation","Animation 3D"],"title":"GIM3D : a pilot study of intuititve 3D motion control HMI (2025)","type":"pages"},{"authors":null,"content":"","date":"2025","externalUrl":null,"permalink":"/authors/marine-capallera/","section":"Authors","tags":null,"title":"Marine Capallera","type":"authors"},{"authors":null,"content":"","date":"2025","externalUrl":null,"permalink":"/tags/publication/","section":"Tags","tags":null,"title":"Publication","type":"tags"},{"authors":["Dimitri Kohler","Antoine Lestrade","Benoit Le Callennec"],"content":" GIM3D permet aux entraîneurs sportifs de montrer directement à leurs athlètes les mouvements qu\u0026rsquo;ils souhaitent corriger, sans avoir à utiliser des descriptions verbales ou des vidéos. Grâce à des modèles statistiques avancés, GIM3D permet de créer et d\u0026rsquo;afficher des mouvements 3D de manière intuitive et rapide. GIM3D est financé par la HES-SO, et est développé en partenariat avec l\u0026rsquo;Institut HumanTech (HEIA-FR) et le Swiss BioMotion Lab (CHUV).\n","date":"2025","externalUrl":null,"permalink":"/pages/2025_gim3d/","section":"Pages","tags":["Ra\u0026D","Sports \u0026 Rehabilitation","Animation 3D"],"title":"GIM3D : Génération Intuitive de Mouvements 3D (2025)","type":"pages"},{"authors":["Ivan Serra Moncadas","Benoit Le Callennec"],"content":" Contexte et enjeux # Les physiothérapeutes ont besoin de faire un scan 3D détaillé des pieds d’un patient au début d’une séance. Cela permettrait d’optimiser l’analyse de la marche, d’affiner les diagnostics et de proposer des traitements mieux adaptés. L’analyse précise des pieds repose sur la qualité des données initiales recueillies lors de l’examen. Dans ce cadre, une mesure fine et rapide de la morphologie du pied constitue un élément essentiel pour améliorer l’interprétation des paramètres cliniques.\nÀ l’heure actuelle, aucune solution disponible ne permet d’obtenir un modèle 3D des pieds qui soit à la fois rapide, fiable et suffisamment pratique pour être intégré en routine clinique. Les outils existants sont souvent trop lents, trop coûteux ou trop complexes à manipuler durant une consultation. Dès lors, il devient nécessaire de concevoir une solution sur mesure, pensée pour le confort du patient et l’efficacité du professionnel de santé.\nObjectifs # Le projet vise à intégrer, au tout début de la séance médicale, une numérisation 3D en temps réel de la forme des pieds du patient en moins de 5 minutes. Cette solution devra permettre :\nUne acquisition précise et instantanée des deux pieds, tandis que le patient est allongé sur une table ; La création d’un modèle 3D complet (y compris voûte plantaire, cheville, avant-pied et arrière-pied) ; La possibilité d’effectuer la modélisation à l’aide d’un smartphone. L’enjeu est de proposer un système simple d’utilisation, totalement interactif, et utilisable en conditions réelles d’examen.\nPartenaires et financement # Ce projet se fait en étroite collaboration avec Christophe Otte, physiothérapeute.\nRésultats # La vidéo ci-dessus permet de visualiser la reconstruction progressive de l’objet scanné, ici une chaussure, à partir des données capturées par le capteur Kinect.\nLe système acquiert et traite simultanément les informations de profondeur afin de générer une reconstruction 3D détaillée. Cette démonstration met en évidence la capacité du prototype à effectuer une fusion de données fiable et dynamique, et confirme le potentiel de la technologie Kinect pour la réalisation de scans 3D interactifs.\nPour l’instant, il n’a été démontré que théoriquement qu’il serait possible d’obtenir un résultat similaire sur smartphone, sans prototype fonctionnel mis en place.\n","date":"2024","externalUrl":null,"permalink":"/pages/2024_rnd_foot3dscan/","section":"Pages","tags":["Ra\u0026D","Sports \u0026 Rehabilitation","Reconstruction 3D"],"title":"Foot 3D Scan (2024)","type":"pages"},{"authors":null,"content":"","date":"2024","externalUrl":null,"permalink":"/tags/reconstruction-3d/","section":"Tags","tags":null,"title":"Reconstruction 3D","type":"tags"},{"authors":null,"content":"","date":"2023","externalUrl":null,"permalink":"/authors/christophe-m%C3%BCller/","section":"Authors","tags":null,"title":"Christophe Müller","type":"authors"},{"authors":["Christophe Müller","Benoit Le Callennec"],"content":" Contexte et enjeux # La capacité de marcher est essentielle au maintien d’une bonne qualité de vie. Force est de constater que de nombreuses atteintes, particulièrement musculo-squelettiques et neurologiques, affectent la marche et nécessitent une prise en charge thérapeutique souvent lourde et onéreuse pour les patients, mais aussi pour les gouvernements.\nBien qu’il soit nécessaire d’améliorer les traitements pour ces maladies, les connaissances sur la marche obtenues en laboratoire peinent à être appliquées en clinique. En effet, les systèmes utilisés pour analyser la marche en laboratoire sont onéreux, complexes à utiliser et parfois invasifs.\nObjectifs # Depuis plusieurs années, des travaux de recherche ont tenté d’utiliser des systèmes peu invasifs, abordables et surtout simples à mettre en œuvre pour l’analyse quantitative de la marche. Les caméras RGB-D font partie de cette classe de capteurs « orientés patients » qui pourraient même être utilisés au domicile des patients.\nCependant, il n’existe pas encore de système multicaméras RGB-D pour mesurer les paramètres spatiotemporels et cinématiques de la marche qui soit suffisamment précis pour être utilisable en clinique. Pourtant, les spécifications des caméras sont aujourd’hui suffisantes.\nCe qui manque, c’est le développement d’algorithmes spécifiques inspirés de ce qui se fait déjà en traitement d’images RGB-D. En particulier, il est possible de pouvoir reconstruire le mouvement des pieds au cours du temps en se basant sur les informations 2D et 3D présentes dans les images RGB-D.\nPartenaires et financement # Ce projet se fait en étroite collaboration avec le Swiss BioMotion Lab du CHUV, un des leaders mondiaux dans le domaine de l’analyse et du réentraînement de la marche.\nRésultats # Ce projet apporte une solution technique de capture et d’analyse du mouvement déployable à grande échelle, abordable, simple à utiliser et sans contact. Pour démontrer la validité de notre système, une première validation dans le cas de l’arthrose du genou a été conduite avec le Swiss BioMotion Lab du CHUV.\nCette application-test répond à un besoin concret et dans un contexte scientifique solide, permettant ainsi d’envisager un transfert direct vers les patients et donc vers le marché. Le projet ne se focalise cependant pas uniquement sur les problèmes du genou ou même de la marche en général. Il ouvre des perspectives sur de nombreuses autres applications aussi bien au sein des instituts de santé que dans le monde industriel.\nA titre d’exemple, les axes les plus prometteurs sont les troubles musculo-squelettiques, l’entraînement sportif, les jeux vidéo et les expériences de VR/AR pour la conception et la maintenance industrielle.\n","date":"2023","externalUrl":null,"permalink":"/pages/2023_rnd_gapko/","section":"Pages","tags":["Ra\u0026D","Sports \u0026 Rehabilitation","Markerless 3D Tracking"],"title":"GAPKO (2023)","type":"pages"},{"authors":null,"content":"","date":"2023","externalUrl":null,"permalink":"/tags/markerless-3d-tracking/","section":"Tags","tags":null,"title":"Markerless 3D Tracking","type":"tags"},{"authors":null,"content":"","externalUrl":null,"permalink":"/categories/","section":"Categories","tags":null,"title":"Categories","type":"categories"},{"authors":null,"content":"","externalUrl":null,"permalink":"/series/","section":"Series","tags":null,"title":"Series","type":"series"}]