Hunyuan Motion brengt natuurlijke taal tot leven met high-fidelity, skeletgebaseerde 3D-animatie
Hunyuan Motion is een next-generation tekst-naar-3D menselijke bewegingsgeneratiemodel suite die simpele Engelse prompts omzet in vloeiende, realistische, skeletgebaseerde animatie. Aangedreven door een Diffusion Transformer met een miljard parameters, getraind met Flow Matching, schaalt Hunyuan Motion instructieopvolging, bewegingsdetail en temporele vloeiendheid naar een nieuw niveau. Het project biedt kant-en-klare CLI en een interactieve Gradio-app voor snelle iteraties, reproduceerbare workflows en platformonafhankelijke compatibiliteit. Met grootschalige pre-training, hoogwaardige fine-tuning en reinforcement learning van menselijke feedback, bereikt Hunyuan Motion state-of-the-art kwaliteit en betrouwbaarheid voor games, film, VR/AR, virtuele productie en digitale menselijke pipelines. Verken de officiële open-source implementatie, pretrained weights en quickstart tools op github.com.

Hunyuan Motion is een reeks tekst-naar-3D menselijke bewegingsgeneratiemodellen die skeletgebaseerde karakteranimaties produceren rechtstreeks vanuit natuurlijke taalprompts. Gebouwd op een Diffusion Transformer en getraind met Flow Matching, schaalt Hunyuan Motion naar het miljard-parameter niveau om de instructieopvolging en bewegingskwaliteit aanzienlijk te verbeteren in vergelijking met eerdere open-source systemen. De trainingspipeline combineert drie fasen—massale pre-training op diverse menselijke beweging, fine-tuning op gecureerde hoogwaardige sequenties en reinforcement learning met menselijke feedback—om vloeiende, fysiek plausibele beweging te leveren die overeenkomt met gedetailleerde tekstuele aanwijzingen. Het resultaat is een prompt-naar-animatie workflow die naadloos integreert in moderne 3D-pipelines. Het project wordt geleverd met een standaardmodel (≈1.0B parameters) en een Lite-variant (≈0.46B parameters) voor verschillende prestatie-enveloppen, samen met platformonafhankelijke ondersteuning, batch-vriendelijke CLI en een eenvoudige Gradio UI voor interactieve verkenning. Volledige details, updates en gebruiksinstructies zijn beschikbaar op de officiële repository op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer met Flow Matching geschaald naar ~1B parameters voor superieure instructieopvolging en bewegingskwaliteit [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Drie-fasen training: grootschalige pre-training, hoogwaardige fine-tuning en RLHF voor natuurlijke, coherente beweging [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Kant-en-klare CLI en Gradio-app voor snelle lokale inferentie en interactieve visualisatie [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Wat Hunyuan Motion anders maakt
Hunyuan Motion schaalt een DiT backbone met Flow Matching naar ~1.0B parameters, waardoor instructieopvolging en bewegingskwaliteit worden verbeterd, terwijl de stabiliteit over frames behouden blijft. Zie de officiële modelbeschrijving en het trainingsoverzicht op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Grootschalige pre-training op 3.000+ uur aan bewegingsdata bouwt brede priors; 400 uur aan gecureerde fine-tuning verbetert detail en vloeiendheid; RL van menselijke feedback verfijnt natuurlijkheid en prompt-naleving. Details zijn gedocumenteerd op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Kies HY-Motion-1.0 (~1.0B parameters) voor state-of-the-art bewegingsgetrouwheid of HY-Motion-1.0-Lite (~0.46B) voor lichtere deployments. De repository biedt weights en instructies voor snelle setup [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion neemt prompts in duidelijke taal en voert beweging uit die overeenkomt met de beoogde actie, stijl en pacing, waardoor creatieve controle mogelijk is zonder elke pose met de hand te animeren.
Verbind optioneel een LLM-gebaseerde duurinschatting en prompt herschrijfmodule om pacing en duidelijkheid te verbeteren. Hunyuan Motion toont eenvoudige vlaggen om deze helpers naar behoefte in of uit te schakelen [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Voer batch jobs uit via de CLI voor grote prompt sets of start een lokale Gradio server voor interactieve visualisatie. Deze tools worden onderhouden in de officiële repo met duidelijke instructies en voorbeelden op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion draait op macOS, Windows en Linux, waardoor gemengde teams workflows kunnen delen. De repo bevat vereisten en scripts voor consistente setup en inferentie [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Door skeletgebaseerde beweging te genereren, past Hunyuan Motion in rigged karakter pipelines en ondersteunt het downstream retargeting, blending en clean-up met behulp van bekende DCC toolchains.
Van prompt tot skeletanimatie
Een gebruiker schrijft een natuurlijke taalprompt die de gewenste actie, stijl en pacing beschrijft. Hunyuan Motion kan optioneel een prompt herschrijf- en duurinschattingmodule gebruiken om de intentie te verduidelijken, de timing af te leiden en de formulering te standaardiseren voorafgaand aan de generatie. Deze stap verhoogt de afstemming tussen de tekstbeschrijving en de bewegingsuitkomst, vooral bij complexe of meerstapsacties zoals gedocumenteerd in de officiële repository op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion samplet bewegingstrajecten met een Diffusion Transformer getraind via Flow Matching. Het model voert vloeiende, temporeel coherente, skeletgebaseerde 3D-beweging uit die zich houdt aan de prompt. Het resultaat kan interactief worden bekeken in de Gradio-app of worden opgeslagen via de CLI voor integratie in uw 3D-pipeline. Volledige gebruiksinstructies zijn te vinden op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Van previsualisatie tot definitieve animatie
Gebruik Hunyuan Motion om snel ren-, spring-, aanvals-, emote- en traversal-bewegingen te genereren om gameplay te prototypen en te itereren op karaktergevoel. Ontwerpers kunnen promptvariaties testen en snel skeletgebaseerde beweging exporteren voor retargeting naar in-game rigs. Voor grotere bibliotheken ondersteunt de CLI batch inferentie en consistente output naamgeving. De officiële repo toont de aanbevolen workflow en vlaggen op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
In cinematische pipelines versnelt Hunyuan Motion previz en blocking. Regisseurs kunnen intentie schetsen als tekst, Hunyuan Motion basislijnbeweging laten genereren en deze aan animators geven voor verfijning. Het vloeiende, instructie-volgende gedrag helpt revisies strak en voorspelbaar te houden over shots.
Combineer Hunyuan Motion met digitale mensen om expressieve gebaren, idle loops en gestileerde acts te synthetiseren. Omdat Hunyuan Motion prompt-gebaseerd is, kunnen niet-technische makers sneller bewegingsideeën verkennen en samenwerken met technische regisseurs voor polish en levering.
Hunyuan Motion ondersteunt de snelle creatie van ambient crowd motion, begeleide interacties en narratieve beats die de immersie versterken. Skeletgebaseerde outputs maken het eenvoudig om animaties te retargeten naar headset-geoptimaliseerde rigs en runtime beperkingen.
Onderwijzers en onderzoekers kunnen Hunyuan Motion gebruiken als referentie voor Diffusion Transformer en Flow Matching benaderingen van beweging. De open-source code en model zoo van het project maken reproduceerbare experimenten en instructie-volgende benchmarks mogelijk [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Bij het bouwen van een consistente bibliotheek van house-style bewegingen, biedt Hunyuan Motion een coherente basis. Teams kunnen toon, pacing en stijl specificeren in tekst, consistente takes genereren en de review standaardiseren via de Gradio-app voordat ze in asset management worden opgenomen.
Alles wat u moet weten om te beginnen met genereren met Hunyuan Motion
Hunyuan Motion genereert skeletgebaseerde 3D menselijke beweging vanuit tekstprompts, ontworpen om te integreren in gangbare 3D-animatie pipelines. Het model richt zich op realisme, temporele vloeiendheid en instructieopvolging, zodat acties, stijlen en pacing weerspiegelen wat u beschrijft. Zie het projectoverzicht en voorbeelden op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion gebruikt een drie-fasen proces: grootschalige pre-training op meer dan 3.000 uur aan beweging om brede priors te leren, fine-tuning op 400 uur aan gecureerde hoogwaardige data voor detail en vloeiendheid, en reinforcement learning met menselijke feedback om de instructie-afstemming en natuurlijkheid verder te verfijnen. De technische samenvatting en trainingsnotities staan in de officiële repo op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Beide maken deel uit van Hunyuan Motion. HY-Motion-1.0 is het standaard, ~1.0B-parameter model dat instructieopvolging en bewegingsgetrouwheid maximaliseert, terwijl HY-Motion-1.0-Lite (~0.46B) is geoptimaliseerd voor lichtere deployments en snellere turnaround. Kies op basis van uw GPU-budget en bewegingskwaliteitsbehoeften. Model download begeleiding wordt verstrekt op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Installeer PyTorch en de projectvereisten, download de pretrained weights volgens de instructies van de repo, en kies vervolgens uw voorkeursinterface: gebruik de CLI voor batch prompts of start de Gradio-app voor een interactieve UI. Een stapsgewijze quickstart wordt gedetailleerd beschreven op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ja. Hunyuan Motion kan optioneel een duurinschatting en prompt herschrijfmodule gebruiken om pacing en duidelijkheid te verbeteren. U kunt deze modules in- of uitschakelen via eenvoudige vlaggen. Als ze niet beschikbaar zijn, kunt u ze expliciet uitschakelen om verbindingsfouten te voorkomen, zoals beschreven in de gebruiksnotities van de repository op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion ondersteunt macOS, Windows en Linux voor inferentie. Installatie-instructies, afhankelijkheidslijsten en tooling voor zowel CLI als Gradio zijn beschikbaar op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ja. Het project bevat een Gradio-app die u lokaal kunt uitvoeren voor interactieve visualisatie. De officiële repo verwijst ook naar een Hugging Face Space en een officiële site om het model uit te proberen. Vind links en setup op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Omdat Hunyuan Motion skeletgebaseerde beweging produceert, kan het worden geretarget naar uw rigs, worden gemengd met bestaande clips en worden doorgegeven via uw DCC tools voor polishing. De CLI is geschikt voor batch jobs, terwijl de Gradio-app creatieve verkenning en review ondersteunt vóór import. Lees meer op [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Zet prompts vandaag nog om in productieklare skeletanimatie. Volg de quickstart in de officiële repository, start de Gradio-app voor directe visualisatie en itereer snel met de CLI voor batch bewegingsgeneratie. Alles wat u nodig heeft om Hunyuan Motion lokaal te deployen—inclusief afhankelijkheden, checkpoints en gebruiksnotities—is beschikbaar op github.com.
Ontdek meer AI-modellen van dezelfde aanbieder
Transformeer je ideeën en afbeeldingen in verbluffende, productieklare 3D-assets met Tencent's revolutionaire Hunyuan 3D. Met geavanceerde diffusion modellen, professionele textuursynthese en naadloze workflow integratie voor game development, product design en digitale kunst.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Transformeer tekst en afbeeldingen in hoogwaardige 3D-modellen. Ontketen uw creatieve potentieel.
Breng portretten tot leven. Maak expressieve pratende-hoofdvideo's van een enkele afbeelding en audio.
Hunyuan Custom is de geavanceerde multimodale video generatie oplossing van Tencent waarmee gebruikers met behulp van AI gepersonaliseerde, onderwerp-consistente video's kunnen maken. Upload een afbeelding, typ een prompt of voeg audio-/video-input toe om binnen enkele seconden content van filmische kwaliteit te genereren.