Hunyuan Motion bringer naturligt sprog til live med høj-kvalitets, skeletbaseret 3D-animation
Hunyuan Motion er en næste-generations tekst-til-3D menneskelig bevægelsesgenereringsmodelpakke, der omdanner almindelige engelske beskeder til flydende, realistisk, skeletbaseret animation. Drevet af en billion-parameter Diffusion Transformer trænet med Flow Matching, skalerer Hunyuan Motion instruktionsfølgning, bevægelsesdetaljer og temporal jævnhed til et nyt niveau. Projektet tilbyder klar-til-brug CLI og en interaktiv Gradio-app til hurtige iterationer, reproducerbare arbejdsgange og tværplatformskompatibilitet. Med storstilet præ-træning, høj-kvalitets finjustering og forstærkningslæring fra menneskelig feedback opnår Hunyuan Motion state-of-the-art kvalitet og pålidelighed til spil, film, VR/AR, virtuel produktion og digitale menneskelige pipelines. Udforsk den officielle open-source implementering, prætrænede vægte og quickstart-værktøjer på github.com.

Hunyuan Motion er en serie af tekst-til-3D menneskelige bevægelsesgenereringsmodeller, der producerer skeletbaserede karakteranimationer direkte fra naturlige sprogbeskeder. Bygget på en Diffusion Transformer og trænet med Flow Matching, skalerer Hunyuan Motion til billion-parameter niveauet for markant at forbedre instruktionsfølgning og bevægelseskvalitet sammenlignet med tidligere open-source systemer. Træningspipelinen kombinerer tre faser – massiv præ-træning på divers menneskelig bevægelse, finjustering på kuraterede høj-kvalitets sekvenser og forstærkningslæring med menneskelig feedback – for at levere jævn, fysisk plausibel bevægelse, der stemmer overens med detaljerede tekstlige anvisninger. Resultatet er en prompt-til-animation arbejdsgang, der integreres problemfrit i moderne 3D-pipelines. Projektet leveres med en standardmodel (≈1.0B parametre) og en Lite-variant (≈0.46B parametre) til forskellige performance-envelopes, sammen med tværplatformssupport, batch-venlig CLI og en nem Gradio UI til interaktiv udforskning. Fuldstændige detaljer, opdateringer og brugsanvisninger er tilgængelige på det officielle repository på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer med Flow Matching skaleret til ~1B parametre for overlegen instruktionsfølgning og bevægelseskvalitet [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Tre-trins træning: storstilet præ-træning, høj-kvalitets finjustering og RLHF for naturlig, sammenhængende bevægelse [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Klar-til-brug CLI og Gradio-app til hurtig lokal inferens og interaktiv visualisering [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Hvad gør Hunyuan Motion anderledes
Hunyuan Motion skalerer en DiT backbone med Flow Matching til ~1.0B parametre, hvilket øger instruktionsfølgning og bevægelseskvalitet, samtidig med at stabiliteten bevares på tværs af frames. Se den officielle modelbeskrivelse og træningsoversigt på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Storstilet præ-træning på 3.000+ timers bevægelsesdata bygger brede priors; 400 timers kurateret finjustering forbedrer detaljer og jævnhed; RL fra menneskelig feedback forfiner naturlighed og prompt-overholdelse. Detaljer er dokumenteret på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Vælg HY-Motion-1.0 (~1.0B parametre) for state-of-the-art bevægelsesfidelity eller HY-Motion-1.0-Lite (~0.46B) for lettere implementeringer. Repository'et indeholder vægte og instruktioner til hurtig opsætning [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion tager almindelige sprogprompter og outputter bevægelse, der stemmer overens med den tilsigtede handling, stil og pacing, hvilket muliggør kreativ kontrol uden at hånd-animere hver pose.
Tilslut eventuelt en LLM-baseret varighedsestimator og prompt-omskrivningsmodul for at forbedre pacing og klarhed. Hunyuan Motion eksponerer simple flag for at aktivere eller deaktivere disse hjælpere efter behov [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Kør batch-jobs via CLI'en for store prompt-sæt, eller spin en lokal Gradio-server op til interaktiv visualisering. Disse værktøjer vedligeholdes i det officielle repo med klare instruktioner og eksempler på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion kører på macOS, Windows og Linux, hvilket hjælper blandede teams med at dele arbejdsgange. Repo'et indeholder krav og scripts til konsistent opsætning og inferens [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ved at generere skeletbaseret bevægelse passer Hunyuan Motion ind i riggede karakterpipelines og understøtter downstream retargeting, blending og oprydning ved hjælp af velkendte DCC-værktøjskæder.
Fra prompt til skeletanimation
En bruger skriver en naturlig sprogprompt, der beskriver den ønskede handling, stil og pacing. Hunyuan Motion kan eventuelt bruge et prompt-omskrivnings- og varighedsestimeringsmodul til at afklare hensigt, udlede timing og standardisere formulering før generering. Dette trin øger justeringen mellem tekstbeskrivelsen og bevægelsesresultatet, især på komplekse eller flertrins handlinger som dokumenteret i det officielle repository på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion sampler bevægelsestrajektorier med en Diffusion Transformer trænet via Flow Matching. Modellen outputter jævn, temporalt sammenhængende, skeletbaseret 3D-bevægelse, der overholder prompten. Resultatet kan ses interaktivt i Gradio-appen eller gemmes via CLI'en til integration i din 3D-pipeline. Fuldstændige brugsanvisninger findes på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Fra prævisualisering til endelig animation
Brug Hunyuan Motion til hurtigt at generere løbe-, hoppe-, angrebs-, emote- og traverseringsbevægelser til at prototype gameplay og iterere på karakterfølelse. Designere kan teste promptvariationer og hurtigt eksportere skeletbaseret bevægelse til retargeting til in-game rigs. For større biblioteker understøtter CLI'en batch-inferens og konsistent outputnavngivning. Det officielle repo viser den anbefalede arbejdsgang og flag på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
I filmiske pipelines accelererer Hunyuan Motion previz og blocking. Instruktører kan skitsere hensigt som tekst, lade Hunyuan Motion generere baseline-bevægelse og give den til animatorer til forfining. Den jævne, instruktionsfølgende adfærd hjælper med at holde revisioner stramme og forudsigelige på tværs af shots.
Par Hunyuan Motion med digitale mennesker for at syntetisere udtryksfulde gestus, idle loops og stiliserede handlinger. Fordi Hunyuan Motion er prompt-baseret, kan ikke-tekniske skabere udforske bevægelsesideer hurtigere og samarbejde med tekniske direktører om polering og levering.
Hunyuan Motion understøtter hurtig oprettelse af ambient crowd-bevægelse, guidede interaktioner og narrative beats, der forbedrer fordybelsen. Skeletbaserede outputs gør det ligetil at retarget animationer til headset-optimerede rigs og runtime-begrænsninger.
Undervisere og forskere kan bruge Hunyuan Motion som en reference for Diffusion Transformer og Flow Matching tilgange til bevægelse. Projektets open-source kode og model zoo muliggør reproducerbare eksperimenter og instruktionsfølgende benchmarks [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Når man bygger et konsistent bibliotek af house-style bevægelser, giver Hunyuan Motion et sammenhængende grundlag. Teams kan specificere tone, pacing og stil i tekst, generere konsistente takes og standardisere gennemgang via Gradio-appen, før de indlæses i asset management.
Alt hvad du behøver at vide for at begynde at generere med Hunyuan Motion
Hunyuan Motion genererer skeletbaseret 3D menneskelig bevægelse fra tekstprompter, designet til at integreres i almindelige 3D-animationspipelines. Modellen fokuserer på realisme, temporal jævnhed og instruktionsfølgning, så handlinger, stilarter og pacing afspejler det, du beskriver. Se projektoversigten og eksempler på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion bruger en tre-trins proces: storstilet præ-træning på over 3.000 timers bevægelse for at lære brede priors, finjustering på 400 timers kuraterede høj-kvalitets data for detaljer og jævnhed og forstærkningslæring med menneskelig feedback for yderligere at forfine instruktionstilpasning og naturlighed. Den tekniske opsummering og træningsnoter er i det officielle repo på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Begge er en del af Hunyuan Motion. HY-Motion-1.0 er standardmodellen med ~1.0B parametre, der maksimerer instruktionsfølgning og bevægelsesfidelity, mens HY-Motion-1.0-Lite (~0.46B) er optimeret til lettere implementeringer og hurtigere turnaround. Vælg baseret på dit GPU-budget og behov for bevægelseskvalitet. Model download vejledning findes på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Installer PyTorch og projektkravene, download de prætrænede vægte efter repo'ets instruktioner, og vælg derefter din foretrukne grænseflade: brug CLI'en til batch-prompter, eller start Gradio-appen for en interaktiv UI. En trin-for-trin quickstart er detaljeret på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ja. Hunyuan Motion kan eventuelt bruge en varighedsestimator og prompt-omskrivningsmodul til at forbedre pacing og klarhed. Du kan aktivere eller deaktivere disse moduler via simple flag. Hvis de ikke er tilgængelige, kan du eksplicit slå dem fra for at undgå forbindelsesfejl, som beskrevet i repository'ets brugsanvisninger på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion understøtter macOS, Windows og Linux til inferens. Installationsinstruktioner, afhængighedslister og værktøjer til både CLI og Gradio er tilgængelige på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ja. Projektet inkluderer en Gradio-app, du kan køre lokalt til interaktiv visualisering. Det officielle repo peger også på et Hugging Face Space og et officielt websted til at prøve modellen. Find links og opsætning på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Fordi Hunyuan Motion producerer skeletbaseret bevægelse, kan den retargetes til dine rigs, blandes med eksisterende klip og føres gennem dine DCC-værktøjer til polering. CLI'en er velegnet til batch-jobs, mens Gradio-appen understøtter kreativ udforskning og gennemgang før import. Lær mere på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Omdan prompter til produktionsklar skeletanimation i dag. Følg quickstarten i det officielle repository, start Gradio-appen for øjeblikkelig visualisering, og iterer hurtigt med CLI'en til batch-bevægelsesgenerering. Alt hvad du behøver for at implementere Hunyuan Motion lokalt – inklusive afhængigheder, checkpoints og brugsanvisninger – er tilgængeligt på github.com.
Udforsk flere AI-modeller fra samme udbyder
Transformer dine ideer og billeder til fantastiske, produktionsklare 3D-aktiver med Tencents revolutionerende Hunyuan 3D. Med avancerede diffusionsmodeller, professionel tekstursyntese og problemfri workflow-integration til spiludvikling, produktdesign og digital kunst.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Transformer tekst og billeder til 3D-modeller af høj kvalitet. Frigør dit kreative potentiale.
Bring portrætter til live. Opret udtryksfulde talende hoved-videoer fra et enkelt billede og lyd.
Hunyuan Custom er Tencents avancerede multimodale videogenereringsløsning, der giver brugerne mulighed for at skabe tilpassede, motiv-konsistente videoer ved hjælp af AI. Upload et billede, skriv en prompt, eller tilføj lyd-/videoinput for at generere indhold i biografkvalitet på få sekunder.