<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Animation 3D on Motion-Lab @ HE-Arc</title><link>https://motion-lab-he-arc.github.io/tags/animation-3d/</link><description>Recent content in Animation 3D on Motion-Lab @ HE-Arc</description><generator>Hugo -- gohugo.io</generator><language>fr</language><copyright>© 2026 Haute École Arc Ingénierie - Tous droits réservés</copyright><lastBuildDate>Sun, 26 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://motion-lab-he-arc.github.io/tags/animation-3d/index.xml" rel="self" type="application/rss+xml"/><item><title>Motion-Lab @ HE-Arc</title><link>https://motion-lab-he-arc.github.io/pages/2025_motion-lab/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2025_motion-lab/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>Le Motion-Lab @ HE-Arc est un environnement de pointe dédié à la capture 3D du mouvement humain.&lt;/p>
&lt;h3 class="relative group">Mission
&lt;div id="mission" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#mission" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h3>
&lt;p>Le Motion-Lab @ HE-Arc fournit des solutions innovantes pour l’étude du mouvement humain 3D dans divers contextes comme le sport, la réhabilitation, l&amp;rsquo;ergonomie, l&amp;rsquo;animation 3D ainsi que la réalité virtuelle.
Grâce à son équipement technologique de pointe, le Motion-Lab @ HE-Arc permet d&amp;rsquo;acquérir le mouvement 3D avec une très grande précision.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2025_motion-lab/featured.jpg"/></item><item><title>Génération de vignettes 3D</title><link>https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>Les fichiers &lt;strong>BVH (Biovision Hierarchy)&lt;/strong> sont largement utilisés pour représenter des animations de motion capture sous forme de squelettes articulés.&lt;/p>
&lt;figure>
&lt;img
class="my-0 rounded-md"
srcset="
/pages/tb_mocap_3d_tumbnails/featured_hu_e4c5c428e19f964d.png 330w,
/pages/tb_mocap_3d_tumbnails/featured_hu_b9c15ed1ddeb51e1.png 660w,
/pages/tb_mocap_3d_tumbnails/featured_hu_8d43f0e293ec7569.png 1024w,
/pages/tb_mocap_3d_tumbnails/featured_hu_c034afb62d923720.png 2x"
src="https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/featured_hu_b9c15ed1ddeb51e1.png"
alt=""
/>
&lt;/figure>
&lt;p>L’objectif de ce travail est de concevoir un &lt;strong>pipeline autonome&lt;/strong> permettant de générer automatiquement des &lt;strong>thumbnails animées&lt;/strong> à partir de fichiers BVH, afin de les afficher dans une page web.&lt;/p>
&lt;h1 class="relative group">Objectifs
&lt;div id="objectifs" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#objectifs" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h1>
&lt;h2 class="relative group">Principaux
&lt;div id="principaux" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#principaux" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h2>
&lt;ul>
&lt;li>Implémenter (ou intégrer si existant) le chargement de fichiers BVH.&lt;/li>
&lt;li>Afficher le fichier BVH. On pourra utiliser l’application existante (avec GeeXLab) comme exemple ou s’orienter, à choix, vers une autre technologie (OpenGL, WebGPU, etc.) si souhaité.&lt;/li>
&lt;li>Générer un image pour chaque interval de l’animation 3D.&lt;/li>
&lt;li>Générer un gif animé à partir de la séquence d’images générées. On pourra utiliser ffmpeg pour ça.&lt;/li>
&lt;/ul>
&lt;h2 class="relative group">Objectifs secondaires
&lt;div id="objectifs-secondaires" class="anchor">&lt;/div>
&lt;span
class="absolute top-0 w-6 transition-opacity opacity-0 ltr:-left-6 rtl:-right-6 not-prose group-hover:opacity-100">
&lt;a class="group-hover:text-primary-300 dark:group-hover:text-neutral-700"
style="text-decoration-line: none !important;" href="#objectifs-secondaires" aria-label="Ancre">#&lt;/a>
&lt;/span>
&lt;/h2>
&lt;ul>
&lt;li>
&lt;p>Extraire et stocker des métadonnées utiles (durée, FPS, nombre de joints, hiérarchie).&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/tb_mocap_3d_tumbnails/featured.png"/></item><item><title>Motion Machine Cloud Platform</title><link>https://motion-lab-he-arc.github.io/pages/tb_moma_saas/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/tb_moma_saas/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>&lt;a href="https://motion-lab-he-arc.github.io/Motion-Lab_Website/" target="_blank">Le Motion-Lab @ HE-Arc&lt;/a> est un espace technologique de pointe dédié à la capture et à l’analyse 3D du mouvement humain. Il repose sur l’utilisation de Motion Machine : un package Python offrant toutes les fonctionnalités relatives à l’animation de personnages 3D, de la gestion de la capture, au stockage, à la génération de mouvements et au streaming. Il existe déjà des intégrations de Motion Machine pour Unity et Unreal Engine.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/tb_moma_saas/featured.png"/></item><item><title>GIM3D : a pilot study of intuititve 3D motion control HMI (2025)</title><link>https://motion-lab-he-arc.github.io/pages/2025_gim3d_paper/</link><pubDate>Mon, 05 May 2025 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2025_gim3d_paper/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>In many fields such as sports training, rehabilitation, and virtual prototyping, the ability to communicate movement information rapidly, intuitively, and unambiguously is essential. In sports, a key challenge for coaches is conveying precise motion adjustments to athletes. This short paper introduces GIM3D, a user interface designed to enable fast and intuitive manipulation of 3D running movements generated. A pilot study with five participants shows a strong willingness to use the tool (F-SUS score = 85.5). The UEQ S resulted an overall average of 2, with higher pragmatic quality (2.35) than hedonic (1.65). Users found the tool supportive, clear, and efficient. Initial results demonstrate the efficiency and plausibility of the generated movements, highlighting the potential of GIM3D as a tool for both practitioners and researchers in human motion science.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2025_gim3d_paper/featured.png"/></item><item><title>GIM3D : Génération Intuitive de Mouvements 3D (2025)</title><link>https://motion-lab-he-arc.github.io/pages/2025_gim3d/</link><pubDate>Wed, 23 Apr 2025 00:00:00 +0000</pubDate><guid>https://motion-lab-he-arc.github.io/pages/2025_gim3d/</guid><description>&lt;div class="flex flex-row space-x-4">
&lt;div class="flex-1" style="flex-grow: 3;">
&lt;!-- begin columns block -->
&lt;p>GIM3D permet aux entraîneurs sportifs de montrer directement à leurs athlètes les mouvements qu&amp;rsquo;ils souhaitent corriger, sans avoir à utiliser des descriptions verbales ou des vidéos.
Grâce à des modèles statistiques avancés, GIM3D permet de créer et d&amp;rsquo;afficher des mouvements 3D de manière intuitive et rapide.
GIM3D est financé par la &lt;a href="https://www.hes-so.ch/" target="_blank">HES-SO&lt;/a>, et est développé en partenariat avec l&amp;rsquo;&lt;a href="https://www.heia-fr.ch/fr/recherche-appliquee/instituts/humantech/" target="_blank">Institut HumanTech (HEIA-FR)&lt;/a> et le &lt;a href="https://www.chuv.ch/fr/dal/dal-home/research/swiss-biomotion-lab" target="_blank">Swiss BioMotion Lab (CHUV)&lt;/a>.&lt;/p></description><media:content xmlns:media="http://search.yahoo.com/mrss/" url="https://motion-lab-he-arc.github.io/pages/2025_gim3d/featured.png"/></item></channel></rss>