<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Benoit Le Callennec on Motion-Lab @ HE-Arc</title><link>https://motion-lab-he-arc.github.io/authors/benoit-le-callennec/</link><description>Recent content in Benoit Le Callennec on Motion-Lab @ HE-Arc</description><generator>Hugo -- gohugo.io</generator><language>fr</language><copyright>© 2026 Haute École Arc Ingénierie - Tous droits réservés</copyright><lastBuildDate>Sun, 26 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://motion-lab-he-arc.github.io/authors/benoit-le-callennec/index.xml" rel="self" type="application/rss+xml"/><item><title>Motion-Lab @ HE-Arc</title><link>https://motion-lab-he-arc.github.io/pages/2025_motion-lab/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2025_motion-lab/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>Le Motion-Lab @ HE-Arc est un environnement de pointe dédié à la capture 3D du mouvement humain.&lt;/p>
&lt;h3 class="relative group">Mission
&lt;div id="mission" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#mission" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h3>
&lt;p>Le Motion-Lab @ HE-Arc fournit des solutions innovantes pour l’étude du mouvement humain 3D dans divers contextes comme le sport, la réhabilitation, l&amp;rsquo;ergonomie, l&amp;rsquo;animation 3D ainsi que la réalité virtuelle.
Grâce à son équipement technologique de pointe, le Motion-Lab @ HE-Arc permet d&amp;rsquo;acquérir le mouvement 3D avec une très grande précision.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2025_motion-lab/featured.jpg"/></item><item><title>Base de données de MoCap</title><link>https://motion-lab-he-arc.github.io/pages/tb_mocap_db/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/tb_mocap_db/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>&lt;a href="https://motion-lab-he-arc.github.io/Motion-Lab_Website/" target="_blank">Le Motion-Lab @ HE-Arc&lt;/a> est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain.&lt;/p>
&lt;p>&lt;strong>Le but de ce projet est de mettre en place une Base de Données pour gérer des fichiers de capture de mouvements.&lt;/strong>&lt;/p>
&lt;figure>
&lt;img
class="my-0 rounded-md"
srcset="
/pages/tb_mocap_db/featured_hu_2f8094d6d186190c.png 330w,
/pages/tb_mocap_db/featured_hu_9525321adf7240f7.png 660w,
/pages/tb_mocap_db/featured_hu_2288df97036477a9.png 1024w,
/pages/tb_mocap_db/featured_hu_5993ed30299687a6.png 2x"
src="https://motion-lab-he-arc.github.io/pages/tb_mocap_db/featured_hu_9525321adf7240f7.png"
alt=""
/>
&lt;/figure>
&lt;h1 class="relative group">Contexte
&lt;div id="contexte" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#contexte" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h1>
&lt;p>Le Motion-Lab de la HE-Arc est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain. Il génère et stocke une grande quantité de fichiers de mouvements 3D, sous différents formats. L’objectif de ce projet est de concevoir une base de données robuste et une intégration Python permettant d’indexer, rechercher, filtrer et exploiter ces assets de manière fiable.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/tb_mocap_db/featured.png"/></item><item><title>FishTank UE5</title><link>https://motion-lab-he-arc.github.io/pages/tb_mocap_head_tracking/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/tb_mocap_head_tracking/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;h2 class="relative group">Contexte
&lt;div id="contexte" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#contexte" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h2>
&lt;p>&lt;a href="https://motion-lab-he-arc.github.io/Motion-Lab_Website/" target="_blank">Le Motion-Lab @ HE-Arc&lt;/a> est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain.&lt;/p>
&lt;p>L’objectif de ce projet est de concevoir et tracker un support léger (une paire de lunettes équipée de marqueurs) pour récupérer en temps réel la position de la tête d’un utilisateur.
Ces données seront utilisées dans Unreal Engine pour contrôler la caméra et ajuster la perspective, offrant une sensation de profondeur et d’immersion 3D lorsque l’utilisateur se déplace devant l’écran.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/tb_mocap_head_tracking/featured.jpg"/></item><item><title>Génération de vignettes 3D</title><link>https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>Les fichiers &lt;strong>BVH (Biovision Hierarchy)&lt;/strong> sont largement utilisés pour représenter des animations de motion capture sous forme de squelettes articulés.&lt;/p>
&lt;figure>
&lt;img
class="my-0 rounded-md"
srcset="
/pages/tb_mocap_3d_tumbnails/featured_hu_e4c5c428e19f964d.png 330w,
/pages/tb_mocap_3d_tumbnails/featured_hu_b9c15ed1ddeb51e1.png 660w,
/pages/tb_mocap_3d_tumbnails/featured_hu_8d43f0e293ec7569.png 1024w,
/pages/tb_mocap_3d_tumbnails/featured_hu_c034afb62d923720.png 2x"
src="https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/featured_hu_b9c15ed1ddeb51e1.png"
alt=""
/>
&lt;/figure>
&lt;p>L’objectif de ce travail est de concevoir un &lt;strong>pipeline autonome&lt;/strong> permettant de générer automatiquement des &lt;strong>thumbnails animées&lt;/strong> à partir de fichiers BVH, afin de les afficher dans une page web.&lt;/p>
&lt;h1 class="relative group">Objectifs
&lt;div id="objectifs" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#objectifs" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h1>
&lt;h2 class="relative group">Principaux
&lt;div id="principaux" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#principaux" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h2>
&lt;ul>
&lt;li>Implémenter (ou intégrer si existant) le chargement de fichiers BVH.&lt;/li>
&lt;li>Afficher le fichier BVH. On pourra utiliser l’application existante (avec GeeXLab) comme exemple ou s’orienter, à choix, vers une autre technologie (OpenGL, WebGPU, etc.) si souhaité.&lt;/li>
&lt;li>Générer un image pour chaque interval de l’animation 3D.&lt;/li>
&lt;li>Générer un gif animé à partir de la séquence d’images générées. On pourra utiliser ffmpeg pour ça.&lt;/li>
&lt;/ul>
&lt;h2 class="relative group">Objectifs secondaires
&lt;div id="objectifs-secondaires" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#objectifs-secondaires" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>Extraire et stocker des métadonnées utiles (durée, FPS, nombre de joints, hiérarchie).&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/featured.png"/></item><item><title>Motion Machine Cloud Platform</title><link>https://motion-lab-he-arc.github.io/pages/tb_moma_saas/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/tb_moma_saas/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>&lt;a href="https://motion-lab-he-arc.github.io/Motion-Lab_Website/" target="_blank">Le Motion-Lab @ HE-Arc&lt;/a> est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain. Il repose sur l’utilisation de Motion Machine : un package Python offrant toutes les fonctionnalités relatives à l’animation de personnages 3D, de la gestion de la capture, au stockage, à la génération de mouvements et au streaming. Il existe déjà des intégrations de Motion Machine pour Unity et Unreal Engine.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/tb_moma_saas/featured.png"/></item><item><title>GIM3D : a pilot study of intuititve 3D motion control HMI (2025)</title><link>https://motion-lab-he-arc.github.io/pages/2025_gim3d_paper/</link><pubDate>Mon, 05 May 2025 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2025_gim3d_paper/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>In many fields such as sports training, rehabilitation, and virtual prototyping, the ability to communicate movement information rapidly, intuitively, and unambiguously is essential. In sports, a key challenge for coaches is conveying precise motion adjustments to athletes. This short paper introduces GIM3D, a user interface designed to enable fast and intuitive manipulation of 3D running movements generated. A pilot study with five participants shows a strong willingness to use the tool (F-SUS score = 85.5). The UEQ S resulted an overall average of 2, with higher pragmatic quality (2.35) than hedonic (1.65). Users found the tool supportive, clear, and efficient. Initial results demonstrate the efficiency and plausibility of the generated movements, highlighting the potential of GIM3D as a tool for both practitioners and researchers in human motion science.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2025_gim3d_paper/featured.png"/></item><item><title>GIM3D : Génération Intuitive de Mouvements 3D (2025)</title><link>https://motion-lab-he-arc.github.io/pages/2025_gim3d/</link><pubDate>Wed, 23 Apr 2025 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2025_gim3d/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>GIM3D permet aux entraîneurs sportifs de montrer directement à leurs athlètes les mouvements qu&amp;rsquo;ils souhaitent corriger, sans avoir à utiliser des descriptions verbales ou des vidéos.
Grâce à des modèles statistiques avancés, GIM3D permet de créer et d&amp;rsquo;afficher des mouvements 3D de manière intuitive et rapide.
GIM3D est financé par la &lt;a href="https://www.hes-so.ch/" target="_blank">HES-SO&lt;/a>, et est développé en partenariat avec l&amp;rsquo;&lt;a href="https://www.heia-fr.ch/fr/recherche-appliquee/instituts/humantech/" target="_blank">Institut HumanTech (HEIA-FR)&lt;/a> et le &lt;a href="https://www.chuv.ch/fr/dal/dal-home/research/swiss-biomotion-lab" target="_blank">Swiss BioMotion Lab (CHUV)&lt;/a>.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2025_gim3d/featured.png"/></item><item><title>Foot 3D Scan (2024)</title><link>https://motion-lab-he-arc.github.io/pages/2024_rnd_foot3dscan/</link><pubDate>Thu, 07 Nov 2024 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2024_rnd_foot3dscan/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;h2 class="relative group">Contexte et enjeux
&lt;div id="contexte-et-enjeux" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#contexte-et-enjeux" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h2>
&lt;p>Les physiothérapeutes ont besoin de faire un scan 3D détaillé des pieds d’un patient au début d’une séance. Cela permettrait d’optimiser l’analyse de la marche, d’affiner les diagnostics et de proposer des traitements mieux adaptés. L’analyse précise des pieds repose sur la qualité des données initiales recueillies lors de l’examen. Dans ce cadre, une mesure fine et rapide de la morphologie du pied constitue un élément essentiel pour améliorer l’interprétation des paramètres cliniques.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2024_rnd_foot3dscan/featured.png"/></item><item><title>GAPKO (2023)</title><link>https://motion-lab-he-arc.github.io/pages/2023_rnd_gapko/</link><pubDate>Fri, 01 Sep 2023 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2023_rnd_gapko/</guid><description>Analyser la marche pour la pratique clinique courante</description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2023_rnd_gapko/featured.png"/></item></channel></rss>