Hunyuan Motion donne vie au langage naturel avec une animation 3D haute fidélité basée sur le squelette
Hunyuan Motion est une suite de modèles de génération de mouvements humains 3D à partir de texte de nouvelle génération qui transforme des invites en anglais simple en animation fluide, réaliste et basée sur le squelette. Propulsé par un Diffusion Transformer d'un milliard de paramètres entraîné avec Flow Matching, Hunyuan Motion met à l'échelle le suivi des instructions, les détails des mouvements et la fluidité temporelle à un nouveau niveau. Le projet fournit une CLI prête à l'emploi et une application Gradio interactive pour des itérations rapides, des flux de travail reproductibles et une compatibilité multiplateforme. Grâce à un pré-entraînement à grande échelle, un réglage fin de haute qualité et un apprentissage par renforcement à partir des commentaires humains, Hunyuan Motion atteint une qualité et une fiabilité de pointe pour les jeux, le cinéma, la VR/AR, la production virtuelle et les pipelines numériques humains. Explorez l'implémentation open source officielle, les poids pré-entraînés et les outils de démarrage rapide sur github.com.

Hunyuan Motion est une série de modèles de génération de mouvements humains 3D à partir de texte qui produisent des animations de personnages basées sur le squelette directement à partir d'invites en langage naturel. Construit sur un Diffusion Transformer et entraîné avec Flow Matching, Hunyuan Motion s'étend au niveau du milliard de paramètres pour améliorer considérablement le suivi des instructions et la qualité des mouvements par rapport aux systèmes open source précédents. Le pipeline d'entraînement combine trois phases : un pré-entraînement massif sur divers mouvements humains, un réglage fin sur des séquences de haute qualité sélectionnées et un apprentissage par renforcement avec des commentaires humains, afin de fournir un mouvement fluide, physiquement plausible qui s'aligne sur des instructions textuelles détaillées. Le résultat est un flux de travail d'invite à animation qui s'intègre de manière transparente dans les pipelines 3D modernes. Le projet est livré avec un modèle standard (≈1,0 milliard de paramètres) et une variante Lite (≈0,46 milliard de paramètres) pour différents enveloppes de performances, ainsi qu'une prise en charge multiplateforme, une CLI compatible avec le traitement par lots et une interface utilisateur Gradio facile pour l'exploration interactive. Tous les détails, mises à jour et instructions d'utilisation sont disponibles sur le référentiel officiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer avec Flow Matching mis à l'échelle à ~1 milliard de paramètres pour un suivi des instructions et une qualité de mouvement supérieurs [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Entraînement en trois étapes : pré-entraînement à grande échelle, réglage fin de haute qualité et RLHF pour un mouvement naturel et cohérent [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
CLI et application Gradio prêtes à l'emploi pour une inférence locale rapide et une visualisation interactive [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Ce qui rend Hunyuan Motion différent
Hunyuan Motion met à l'échelle une base DiT avec Flow Matching à ~1,0 milliard de paramètres, ce qui améliore le suivi des instructions et la qualité du mouvement tout en préservant la stabilité entre les images. Consultez la description officielle du modèle et l'aperçu de l'entraînement sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Un pré-entraînement à grande échelle sur plus de 3 000 heures de données de mouvement construit de larges priors ; 400 heures de réglage fin sélectionné améliorent les détails et la fluidité ; RL à partir des commentaires humains affine le naturel et l'adhérence aux invites. Les détails sont documentés sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Choisissez HY-Motion-1.0 (~1,0 milliard de paramètres) pour une fidélité de mouvement de pointe ou HY-Motion-1.0-Lite (~0,46 milliard) pour des déploiements plus légers. Le référentiel fournit des poids et des instructions pour une configuration rapide [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion prend des invites en langage clair et génère un mouvement qui s'aligne sur l'action, le style et le rythme prévus, permettant un contrôle créatif sans animer chaque pose à la main.
Connectez éventuellement un estimateur de durée basé sur LLM et un module de réécriture des invites pour améliorer le rythme et la clarté. Hunyuan Motion expose des indicateurs simples pour activer ou désactiver ces assistants selon les besoins [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Exécutez des tâches par lots via la CLI pour les grands ensembles d'invites ou lancez un serveur Gradio local pour une visualisation interactive. Ces outils sont maintenus dans le référentiel officiel avec des instructions et des exemples clairs sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion fonctionne sur macOS, Windows et Linux, ce qui aide les équipes mixtes à partager des flux de travail. Le référentiel comprend des exigences et des scripts pour une configuration et une inférence cohérentes [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
En générant des mouvements basés sur le squelette, Hunyuan Motion s'intègre aux pipelines de personnages truqués et prend en charge le retargeting, le blending et le nettoyage en aval à l'aide de chaînes d'outils DCC familières.
De l'invite à l'animation squelettique
Un utilisateur écrit une invite en langage naturel décrivant l'action, le style et le rythme souhaités. Hunyuan Motion peut éventuellement utiliser un module de réécriture des invites et d'estimation de la durée pour clarifier l'intention, déduire le timing et standardiser le phrasé avant la génération. Cette étape augmente l'alignement entre la description textuelle et le résultat du mouvement, en particulier sur les actions complexes ou en plusieurs étapes, comme documenté dans le référentiel officiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion échantillonne les trajectoires de mouvement avec un Diffusion Transformer entraîné via Flow Matching. Le modèle génère un mouvement 3D fluide, temporellement cohérent et basé sur le squelette qui adhère à l'invite. Le résultat peut être visualisé de manière interactive dans l'application Gradio ou enregistré via la CLI pour l'intégration dans votre pipeline 3D. Les instructions d'utilisation complètes sont fournies sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
De la prévisualisation à l'animation finale
Utilisez Hunyuan Motion pour générer rapidement des mouvements de course, de saut, d'attaque, d'émotion et de déplacement afin de prototyper le gameplay et d'itérer sur la sensation du personnage. Les concepteurs peuvent tester les variations d'invites et exporter rapidement des mouvements basés sur le squelette pour le retargeting vers des rigs en jeu. Pour les bibliothèques plus grandes, la CLI prend en charge l'inférence par lots et la dénomination cohérente des sorties. Le référentiel officiel montre le flux de travail et les indicateurs recommandés sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Dans les pipelines cinématographiques, Hunyuan Motion accélère la prévisualisation et le blocage. Les réalisateurs peuvent esquisser l'intention sous forme de texte, laisser Hunyuan Motion générer un mouvement de base et le confier aux animateurs pour le raffinement. Le comportement fluide et de suivi des instructions aide à maintenir les révisions serrées et prévisibles d'un plan à l'autre.
Associez Hunyuan Motion à des humains numériques pour synthétiser des gestes expressifs, des boucles d'inactivité et des actes stylisés. Étant donné que Hunyuan Motion est basé sur des invites, les créateurs non techniques peuvent explorer les idées de mouvement plus rapidement et collaborer avec les directeurs techniques pour le polissage et la livraison.
Hunyuan Motion prend en charge la création rapide de mouvements de foule ambiants, d'interactions guidées et de rythmes narratifs qui améliorent l'immersion. Les sorties basées sur le squelette facilitent le retargeting des animations vers des rigs optimisés pour les casques et les contraintes d'exécution.
Les éducateurs et les chercheurs peuvent utiliser Hunyuan Motion comme référence pour les approches Diffusion Transformer et Flow Matching du mouvement. Le code open source du projet et le zoo de modèles permettent des expériences reproductibles et des benchmarks de suivi des instructions [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Lors de la construction d'une bibliothèque cohérente de mouvements de style maison, Hunyuan Motion fournit une base cohérente. Les équipes peuvent spécifier le ton, le rythme et le style dans le texte, générer des prises cohérentes et standardiser la révision via l'application Gradio avant de les intégrer dans la gestion des actifs.
Tout ce que vous devez savoir pour commencer à générer avec Hunyuan Motion
Hunyuan Motion génère des mouvements humains 3D basés sur le squelette à partir d'invites textuelles, conçus pour s'intégrer aux pipelines d'animation 3D courants. Le modèle se concentre sur le réalisme, la fluidité temporelle et le suivi des instructions afin que les actions, les styles et le rythme reflètent ce que vous décrivez. Consultez la présentation du projet et des exemples sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion utilise un processus en trois étapes : un pré-entraînement à grande échelle sur plus de 3 000 heures de mouvement pour apprendre de larges priors, un réglage fin sur 400 heures de données de haute qualité sélectionnées pour les détails et la fluidité, et un apprentissage par renforcement avec des commentaires humains pour affiner davantage l'alignement des instructions et le naturel. Le résumé technique et les notes d'entraînement se trouvent dans le référentiel officiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Les deux font partie de Hunyuan Motion. HY-Motion-1.0 est le modèle standard d'environ 1,0 milliard de paramètres qui maximise le suivi des instructions et la fidélité du mouvement, tandis que HY-Motion-1.0-Lite (~0,46 milliard) est optimisé pour les déploiements plus légers et un délai d'exécution plus rapide. Choisissez en fonction de votre budget GPU et de vos besoins en qualité de mouvement. Les instructions de téléchargement du modèle sont fournies sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Installez PyTorch et les exigences du projet, téléchargez les poids pré-entraînés en suivant les instructions du référentiel, puis choisissez votre interface préférée : utilisez la CLI pour les invites par lots ou lancez l'application Gradio pour une interface utilisateur interactive. Un démarrage rapide étape par étape est détaillé sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Oui. Hunyuan Motion peut éventuellement utiliser un estimateur de durée et un module de réécriture des invites pour améliorer le rythme et la clarté. Vous pouvez activer ou désactiver ces modules via des indicateurs simples. S'ils ne sont pas disponibles, vous pouvez explicitement les désactiver pour éviter les erreurs de connexion, comme décrit dans les notes d'utilisation du référentiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion prend en charge macOS, Windows et Linux pour l'inférence. Les instructions d'installation, les listes de dépendances et les outils pour la CLI et Gradio sont disponibles sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Oui. Le projet comprend une application Gradio que vous pouvez exécuter localement pour une visualisation interactive. Le référentiel officiel pointe également vers un Hugging Face Space et un site officiel pour essayer le modèle. Trouvez les liens et la configuration sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Étant donné que Hunyuan Motion produit des mouvements basés sur le squelette, il peut être retargeté vers vos rigs, mélangé avec des clips existants et transmis via vos outils DCC pour le polissage. La CLI est adaptée aux tâches par lots, tandis que l'application Gradio prend en charge l'exploration créative et la révision avant l'importation. Apprenez-en davantage sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Transformez les invites en animation squelettique prête pour la production dès aujourd'hui. Suivez le démarrage rapide dans le référentiel officiel, lancez l'application Gradio pour une visualisation instantanée et itérez rapidement avec la CLI pour la génération de mouvements par lots. Tout ce dont vous avez besoin pour déployer Hunyuan Motion localement, y compris les dépendances, les points de contrôle et les notes d'utilisation, est disponible sur github.com.
Découvrez d'autres modèles d'IA du même fournisseur
Transformez vos idées et vos images en actifs 3D époustouflants et prêts pour la production grâce au révolutionnaire Hunyuan 3D de Tencent. Doté de modèles de diffusion avancés, d'une synthèse de textures professionnelles et d'une intégration transparente du flux de travail pour le développement de jeux, la conception de produits et l'art numérique.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Transformez du texte et des images en modèles 3D de haute qualité. Libérez votre potentiel créatif.
Donnez vie aux portraits. Créez des vidéos expressives de têtes parlantes à partir d’une seule image et d’un seul fichier audio.
Hunyuan Custom est la solution de génération vidéo multimodale de pointe de Tencent qui permet aux utilisateurs de créer des vidéos personnalisées et cohérentes avec le sujet grâce à l'IA. Téléchargez une image, saisissez une invite ou ajoutez une entrée audio/vidéo pour générer du contenu de qualité cinématographique en quelques secondes.