Story321.com
Story321.com
AccueilBlogTarifs
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Accueil
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogTarifs
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
AccueilVidéoImage3DÉcriture
Story321.com

Story321.com est l'IA narrative pour les écrivains et les conteurs qui souhaitent créer et partager leurs histoires, livres, scripts, podcasts, vidéos et plus encore avec l'aide de l'IA.

Suivez-nous
X
Products
✍️Writing

Création de texte

🖼️Image

Création d'images

🎬Video

Création de vidéos

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Société
  • À propos de nous
  • Tarifs
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique de remboursement
  • Clause de non-responsabilité
Story321.com

Story321.com est l'IA narrative pour les écrivains et les conteurs qui souhaitent créer et partager leurs histoires, livres, scripts, podcasts, vidéos et plus encore avec l'aide de l'IA.

Products
✍️Writing

Création de texte

🖼️Image

Création d'images

🎬Video

Création de vidéos

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Société
  • À propos de nous
  • Tarifs
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique de remboursement
  • Clause de non-responsabilité
Suivez-nous
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Tous droits réservés

Made with ❤️ for writers and storytellers
    1. Accueil
    2. Modèles d'IA
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — Génération de mouvements humains 3D à partir de texte à grande échelle

    Hunyuan Motion donne vie au langage naturel avec une animation 3D haute fidélité basée sur le squelette

    Hunyuan Motion est une suite de modèles de génération de mouvements humains 3D à partir de texte de nouvelle génération qui transforme des invites en anglais simple en animation fluide, réaliste et basée sur le squelette. Propulsé par un Diffusion Transformer d'un milliard de paramètres entraîné avec Flow Matching, Hunyuan Motion met à l'échelle le suivi des instructions, les détails des mouvements et la fluidité temporelle à un nouveau niveau. Le projet fournit une CLI prête à l'emploi et une application Gradio interactive pour des itérations rapides, des flux de travail reproductibles et une compatibilité multiplateforme. Grâce à un pré-entraînement à grande échelle, un réglage fin de haute qualité et un apprentissage par renforcement à partir des commentaires humains, Hunyuan Motion atteint une qualité et une fiabilité de pointe pour les jeux, le cinéma, la VR/AR, la production virtuelle et les pipelines numériques humains. Explorez l'implémentation open source officielle, les poids pré-entraînés et les outils de démarrage rapide sur github.com.

    Texte-vers-Mouvement
    Animation 3D
    Hunyuan Motion

    Qu'est-ce que Hunyuan Motion ?

    Hunyuan Motion est une série de modèles de génération de mouvements humains 3D à partir de texte qui produisent des animations de personnages basées sur le squelette directement à partir d'invites en langage naturel. Construit sur un Diffusion Transformer et entraîné avec Flow Matching, Hunyuan Motion s'étend au niveau du milliard de paramètres pour améliorer considérablement le suivi des instructions et la qualité des mouvements par rapport aux systèmes open source précédents. Le pipeline d'entraînement combine trois phases : un pré-entraînement massif sur divers mouvements humains, un réglage fin sur des séquences de haute qualité sélectionnées et un apprentissage par renforcement avec des commentaires humains, afin de fournir un mouvement fluide, physiquement plausible qui s'aligne sur des instructions textuelles détaillées. Le résultat est un flux de travail d'invite à animation qui s'intègre de manière transparente dans les pipelines 3D modernes. Le projet est livré avec un modèle standard (≈1,0 milliard de paramètres) et une variante Lite (≈0,46 milliard de paramètres) pour différents enveloppes de performances, ainsi qu'une prise en charge multiplateforme, une CLI compatible avec le traitement par lots et une interface utilisateur Gradio facile pour l'exploration interactive. Tous les détails, mises à jour et instructions d'utilisation sont disponibles sur le référentiel officiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Diffusion Transformer avec Flow Matching mis à l'échelle à ~1 milliard de paramètres pour un suivi des instructions et une qualité de mouvement supérieurs [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Entraînement en trois étapes : pré-entraînement à grande échelle, réglage fin de haute qualité et RLHF pour un mouvement naturel et cohérent [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    CLI et application Gradio prêtes à l'emploi pour une inférence locale rapide et une visualisation interactive [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Fonctionnalités clés

    Ce qui rend Hunyuan Motion différent

    Diffusion Transformer + Flow Matching à l'échelle du milliard

    Hunyuan Motion met à l'échelle une base DiT avec Flow Matching à ~1,0 milliard de paramètres, ce qui améliore le suivi des instructions et la qualité du mouvement tout en préservant la stabilité entre les images. Consultez la description officielle du modèle et l'aperçu de l'entraînement sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Pipeline d'entraînement en trois étapes

    Un pré-entraînement à grande échelle sur plus de 3 000 heures de données de mouvement construit de larges priors ; 400 heures de réglage fin sélectionné améliorent les détails et la fluidité ; RL à partir des commentaires humains affine le naturel et l'adhérence aux invites. Les détails sont documentés sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Zoo de modèles : Standard et Lite

    Choisissez HY-Motion-1.0 (~1,0 milliard de paramètres) pour une fidélité de mouvement de pointe ou HY-Motion-1.0-Lite (~0,46 milliard) pour des déploiements plus légers. Le référentiel fournit des poids et des instructions pour une configuration rapide [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Génération de mouvement axée sur le texte

    Hunyuan Motion prend des invites en langage clair et génère un mouvement qui s'aligne sur l'action, le style et le rythme prévus, permettant un contrôle créatif sans animer chaque pose à la main.

    Ingénierie des invites et estimation de la durée

    Connectez éventuellement un estimateur de durée basé sur LLM et un module de réécriture des invites pour améliorer le rythme et la clarté. Hunyuan Motion expose des indicateurs simples pour activer ou désactiver ces assistants selon les besoins [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI et Gradio inclus

    Exécutez des tâches par lots via la CLI pour les grands ensembles d'invites ou lancez un serveur Gradio local pour une visualisation interactive. Ces outils sont maintenus dans le référentiel officiel avec des instructions et des exemples clairs sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Prise en charge multiplateforme

    Hunyuan Motion fonctionne sur macOS, Windows et Linux, ce qui aide les équipes mixtes à partager des flux de travail. Le référentiel comprend des exigences et des scripts pour une configuration et une inférence cohérentes [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Sorties adaptées à la production

    En générant des mouvements basés sur le squelette, Hunyuan Motion s'intègre aux pipelines de personnages truqués et prend en charge le retargeting, le blending et le nettoyage en aval à l'aide de chaînes d'outils DCC familières.

    Comment fonctionne Hunyuan Motion

    De l'invite à l'animation squelettique

    1

    Analyse des instructions et planification de la durée

    Un utilisateur écrit une invite en langage naturel décrivant l'action, le style et le rythme souhaités. Hunyuan Motion peut éventuellement utiliser un module de réécriture des invites et d'estimation de la durée pour clarifier l'intention, déduire le timing et standardiser le phrasé avant la génération. Cette étape augmente l'alignement entre la description textuelle et le résultat du mouvement, en particulier sur les actions complexes ou en plusieurs étapes, comme documenté dans le référentiel officiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    Échantillonnage DiT à correspondance de flux et synthèse squelettique

    Hunyuan Motion échantillonne les trajectoires de mouvement avec un Diffusion Transformer entraîné via Flow Matching. Le modèle génère un mouvement 3D fluide, temporellement cohérent et basé sur le squelette qui adhère à l'invite. Le résultat peut être visualisé de manière interactive dans l'application Gradio ou enregistré via la CLI pour l'intégration dans votre pipeline 3D. Les instructions d'utilisation complètes sont fournies sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Où utiliser Hunyuan Motion

    De la prévisualisation à l'animation finale

    Développement de jeux et prototypage

    Utilisez Hunyuan Motion pour générer rapidement des mouvements de course, de saut, d'attaque, d'émotion et de déplacement afin de prototyper le gameplay et d'itérer sur la sensation du personnage. Les concepteurs peuvent tester les variations d'invites et exporter rapidement des mouvements basés sur le squelette pour le retargeting vers des rigs en jeu. Pour les bibliothèques plus grandes, la CLI prend en charge l'inférence par lots et la dénomination cohérente des sorties. Le référentiel officiel montre le flux de travail et les indicateurs recommandés sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Film, VFX et production virtuelle

    Dans les pipelines cinématographiques, Hunyuan Motion accélère la prévisualisation et le blocage. Les réalisateurs peuvent esquisser l'intention sous forme de texte, laisser Hunyuan Motion générer un mouvement de base et le confier aux animateurs pour le raffinement. Le comportement fluide et de suivi des instructions aide à maintenir les révisions serrées et prévisibles d'un plan à l'autre.

    Humains numériques et influenceurs virtuels

    Associez Hunyuan Motion à des humains numériques pour synthétiser des gestes expressifs, des boucles d'inactivité et des actes stylisés. Étant donné que Hunyuan Motion est basé sur des invites, les créateurs non techniques peuvent explorer les idées de mouvement plus rapidement et collaborer avec les directeurs techniques pour le polissage et la livraison.

    VR/AR et expériences immersives

    Hunyuan Motion prend en charge la création rapide de mouvements de foule ambiants, d'interactions guidées et de rythmes narratifs qui améliorent l'immersion. Les sorties basées sur le squelette facilitent le retargeting des animations vers des rigs optimisés pour les casques et les contraintes d'exécution.

    Éducation, recherche et laboratoires

    Les éducateurs et les chercheurs peuvent utiliser Hunyuan Motion comme référence pour les approches Diffusion Transformer et Flow Matching du mouvement. Le code open source du projet et le zoo de modèles permettent des expériences reproductibles et des benchmarks de suivi des instructions [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Studios construisant des bibliothèques de mouvements internes

    Lors de la construction d'une bibliothèque cohérente de mouvements de style maison, Hunyuan Motion fournit une base cohérente. Les équipes peuvent spécifier le ton, le rythme et le style dans le texte, générer des prises cohérentes et standardiser la révision via l'application Gradio avant de les intégrer dans la gestion des actifs.

    Foire aux questions

    Tout ce que vous devez savoir pour commencer à générer avec Hunyuan Motion

    Que génère exactement Hunyuan Motion ?

    Hunyuan Motion génère des mouvements humains 3D basés sur le squelette à partir d'invites textuelles, conçus pour s'intégrer aux pipelines d'animation 3D courants. Le modèle se concentre sur le réalisme, la fluidité temporelle et le suivi des instructions afin que les actions, les styles et le rythme reflètent ce que vous décrivez. Consultez la présentation du projet et des exemples sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Comment Hunyuan Motion est-il entraîné ?

    Hunyuan Motion utilise un processus en trois étapes : un pré-entraînement à grande échelle sur plus de 3 000 heures de mouvement pour apprendre de larges priors, un réglage fin sur 400 heures de données de haute qualité sélectionnées pour les détails et la fluidité, et un apprentissage par renforcement avec des commentaires humains pour affiner davantage l'alignement des instructions et le naturel. Le résumé technique et les notes d'entraînement se trouvent dans le référentiel officiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Quelle est la différence entre HY-Motion-1.0 et HY-Motion-1.0-Lite ?

    Les deux font partie de Hunyuan Motion. HY-Motion-1.0 est le modèle standard d'environ 1,0 milliard de paramètres qui maximise le suivi des instructions et la fidélité du mouvement, tandis que HY-Motion-1.0-Lite (~0,46 milliard) est optimisé pour les déploiements plus légers et un délai d'exécution plus rapide. Choisissez en fonction de votre budget GPU et de vos besoins en qualité de mouvement. Les instructions de téléchargement du modèle sont fournies sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Comment puis-je exécuter Hunyuan Motion localement ?

    Installez PyTorch et les exigences du projet, téléchargez les poids pré-entraînés en suivant les instructions du référentiel, puis choisissez votre interface préférée : utilisez la CLI pour les invites par lots ou lancez l'application Gradio pour une interface utilisateur interactive. Un démarrage rapide étape par étape est détaillé sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hunyuan Motion peut-il estimer la durée et réécrire les invites automatiquement ?

    Oui. Hunyuan Motion peut éventuellement utiliser un estimateur de durée et un module de réécriture des invites pour améliorer le rythme et la clarté. Vous pouvez activer ou désactiver ces modules via des indicateurs simples. S'ils ne sont pas disponibles, vous pouvez explicitement les désactiver pour éviter les erreurs de connexion, comme décrit dans les notes d'utilisation du référentiel sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Quels systèmes d'exploitation Hunyuan Motion prend-il en charge ?

    Hunyuan Motion prend en charge macOS, Windows et Linux pour l'inférence. Les instructions d'installation, les listes de dépendances et les outils pour la CLI et Gradio sont disponibles sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Existe-t-il une démo interactive ?

    Oui. Le projet comprend une application Gradio que vous pouvez exécuter localement pour une visualisation interactive. Le référentiel officiel pointe également vers un Hugging Face Space et un site officiel pour essayer le modèle. Trouvez les liens et la configuration sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Comment puis-je intégrer les sorties Hunyuan Motion dans mon pipeline ?

    Étant donné que Hunyuan Motion produit des mouvements basés sur le squelette, il peut être retargeté vers vos rigs, mélangé avec des clips existants et transmis via vos outils DCC pour le polissage. La CLI est adaptée aux tâches par lots, tandis que l'application Gradio prend en charge l'exploration créative et la révision avant l'importation. Apprenez-en davantage sur [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Commencez à créer avec Hunyuan Motion

    Transformez les invites en animation squelettique prête pour la production dès aujourd'hui. Suivez le démarrage rapide dans le référentiel officiel, lancez l'application Gradio pour une visualisation instantanée et itérez rapidement avec la CLI pour la génération de mouvements par lots. Tout ce dont vous avez besoin pour déployer Hunyuan Motion localement, y compris les dépendances, les points de contrôle et les notes d'utilisation, est disponible sur github.com.

    Modèles Similaires

    Découvrez d'autres modèles d'IA du même fournisseur

    Hunyuan 3D

    Transformez vos idées et vos images en actifs 3D époustouflants et prêts pour la production grâce au révolutionnaire Hunyuan 3D de Tencent. Doté de modèles de diffusion avancés, d'une synthèse de textures professionnelles et d'une intégration transparente du flux de travail pour le développement de jeux, la conception de produits et l'art numérique.

    En savoir plus

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    En savoir plus

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    En savoir plus

    Générez sans effort des ressources 3D époustouflantes avec Hunyuan World

    Transformez du texte et des images en modèles 3D de haute qualité. Libérez votre potentiel créatif.

    En savoir plus

    Générez des avatars vidéo réalistes avec Hunyuan Video Avatar

    Donnez vie aux portraits. Créez des vidéos expressives de têtes parlantes à partir d’une seule image et d’un seul fichier audio.

    En savoir plus

    Hunyuan Custom – Outil de génération vidéo multimodale IA nouvelle génération

    Hunyuan Custom est la solution de génération vidéo multimodale de pointe de Tencent qui permet aux utilisateurs de créer des vidéos personnalisées et cohérentes avec le sujet grâce à l'IA. Téléchargez une image, saisissez une invite ou ajoutez une entrée audio/vidéo pour générer du contenu de qualité cinématographique en quelques secondes.

    En savoir plus
    Voir tous les modèles