Hunyuan Motion bringer naturlig språk til live med høykvalitets, skjelettbasert 3D-animasjon
Hunyuan Motion er en neste-generasjons tekst-til-3D menneskelig bevegelsesgenereringsmodell som transformerer vanlige engelske meldinger til flytende, realistisk, skjelettbasert animasjon. Drevet av en Diffusion Transformer med en milliard parametere, trent med Flow Matching, skalerer Hunyuan Motion instruksjonsfølging, bevegelsesdetaljer og tidsmessig jevnhet til et nytt nivå. Prosjektet tilbyr klar-til-bruk CLI og en interaktiv Gradio-app for raske iterasjoner, reproduserbare arbeidsflyter og kompatibilitet på tvers av plattformer. Med storskala pre-trening, høykvalitets finjustering og forsterkningslæring fra menneskelig tilbakemelding, oppnår Hunyuan Motion topp kvalitet og pålitelighet for spill, film, VR/AR, virtuell produksjon og digitale menneskelige pipelines. Utforsk den offisielle åpen kildekode-implementeringen, forhåndstrente vekter og hurtigstartverktøy på github.com.

Hunyuan Motion er en serie tekst-til-3D menneskelig bevegelsesgenereringsmodeller som produserer skjelettbaserte karakteranimasjoner direkte fra naturlige språkmeldinger. Bygget på en Diffusion Transformer og trent med Flow Matching, skalerer Hunyuan Motion til en milliard parametere for å forbedre instruksjonsfølging og bevegelseskvalitet betydelig sammenlignet med tidligere åpen kildekode-systemer. Treningspipelinen kombinerer tre faser – massiv pre-trening på mangfoldig menneskelig bevegelse, finjustering på kuraterte høykvalitetssekvenser og forsterkningslæring med menneskelig tilbakemelding – for å levere jevn, fysisk plausibel bevegelse som stemmer overens med detaljerte tekstlige retninger. Resultatet er en melding-til-animasjon-arbeidsflyt som integreres sømløst i moderne 3D-pipelines. Prosjektet leveres med en standardmodell (≈1,0B parametere) og en Lite-variant (≈0,46B parametere) for forskjellige ytelseskonvolutter, sammen med støtte på tvers av plattformer, batch-vennlig CLI og et enkelt Gradio UI for interaktiv utforsking. Fullstendige detaljer, oppdateringer og bruksanvisninger er tilgjengelige i det offisielle depotet på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer med Flow Matching skalert til ~1B parametere for overlegen instruksjonsfølging og bevegelseskvalitet [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Tre-trinns trening: storskala pre-trening, høykvalitets finjustering og RLHF for naturlig, sammenhengende bevegelse [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Klar-til-bruk CLI og Gradio-app for rask lokal inferens og interaktiv visualisering [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Hva gjør Hunyuan Motion annerledes
Hunyuan Motion skalerer en DiT-ryggsøyle med Flow Matching til ~1,0B parametere, og øker instruksjonsfølging og bevegelseskvalitet samtidig som stabiliteten bevares på tvers av rammer. Se den offisielle modellbeskrivelsen og treningsoversikten på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Storskala pre-trening på 3000+ timer med bevegelsesdata bygger brede prioriteringer; 400 timer med kuratert finjustering forbedrer detaljer og jevnhet; RL fra menneskelig tilbakemelding forbedrer naturlighet og meldingsoverholdelse. Detaljer er dokumentert på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Velg HY-Motion-1.0 (~1,0B parametere) for toppmoderne bevegelseskvalitet eller HY-Motion-1.0-Lite (~0,46B) for lettere distribusjoner. Depotet gir vekter og instruksjoner for raskt oppsett [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion tar meldinger på vanlig språk og gir bevegelse som stemmer overens med den tiltenkte handlingen, stilen og tempoet, og muliggjør kreativ kontroll uten å håndanimere hver positur.
Koble eventuelt til en LLM-basert varighetsestimator og meldingsomskrivingsmodul for å forbedre tempo og klarhet. Hunyuan Motion eksponerer enkle flagg for å aktivere eller deaktivere disse hjelperne etter behov [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Kjør batch-jobber via CLI for store meldingssett eller start en lokal Gradio-server for interaktiv visualisering. Disse verktøyene vedlikeholdes i det offisielle depotet med klare instruksjoner og eksempler på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion kjører på macOS, Windows og Linux, og hjelper blandede team med å dele arbeidsflyter. Depotet inneholder krav og skript for konsistent oppsett og inferens [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ved å generere skjelettbasert bevegelse, passer Hunyuan Motion inn i riggede karakterpipeliner og støtter nedstrøms retargeting, blanding og opprydding ved hjelp av kjente DCC-verktøykjeder.
Fra melding til skjelettanimasjon
En bruker skriver en melding på naturlig språk som beskriver ønsket handling, stil og tempo. Hunyuan Motion kan eventuelt bruke en meldingsomskriving og varighetsestimeringsmodul for å avklare intensjon, utlede timing og standardisere formulering før generering. Dette trinnet øker justeringen mellom tekstbeskrivelsen og bevegelsesresultatet, spesielt på komplekse handlinger eller handlinger i flere trinn som dokumentert i det offisielle depotet på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion sampler bevegelsesbaner med en Diffusion Transformer trent via Flow Matching. Modellen gir jevn, tidsmessig sammenhengende, skjelettbasert 3D-bevegelse som følger meldingen. Resultatet kan sees interaktivt i Gradio-appen eller lagres via CLI for integrering i din 3D-pipeline. Fullstendige bruksanvisninger er gitt på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Fra forhåndsvisning til endelig animasjon
Bruk Hunyuan Motion til raskt å generere løpe-, hoppe-, angripe-, emote- og traverseringsbevegelser for å prototype gameplay og iterere på karakterfølelse. Designere kan teste meldingsvariasjoner og raskt eksportere skjelettbasert bevegelse for retargeting til rigger i spillet. For større biblioteker støtter CLI batch-inferens og konsistent utdatanavngivning. Det offisielle depotet viser den anbefalte arbeidsflyten og flaggene på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
I kinematiske pipelines akselererer Hunyuan Motion previz og blokkering. Regissører kan skissere intensjon som tekst, la Hunyuan Motion generere grunnleggende bevegelse og gi den til animatører for forbedring. Den jevne, instruksjonsfølgende oppførselen bidrar til å holde revisjoner stramme og forutsigbare på tvers av bilder.
Par Hunyuan Motion med digitale mennesker for å syntetisere uttrykksfulle bevegelser, tomgangsløkker og stiliserte handlinger. Fordi Hunyuan Motion er meldingsbasert, kan ikke-tekniske skapere utforske bevegelsesideer raskere og samarbeide med tekniske regissører for polering og levering.
Hunyuan Motion støtter rask opprettelse av omgivende folkemengdebevegelse, guidede interaksjoner og narrative takter som forbedrer innlevelsen. Skjelettbaserte utdata gjør det enkelt å retargete animasjoner til hodesettoptimaliserte rigger og kjøretidsbegrensninger.
Utdannere og forskere kan bruke Hunyuan Motion som en referanse for Diffusion Transformer og Flow Matching-tilnærminger til bevegelse. Prosjektets åpen kildekode og modellzoo muliggjør reproduserbare eksperimenter og instruksjonsfølgende referansemålinger [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Når du bygger et konsistent bibliotek med husstilbevegelser, gir Hunyuan Motion et sammenhengende grunnlag. Team kan spesifisere tone, tempo og stil i tekst, generere konsistente opptak og standardisere gjennomgang via Gradio-appen før de inntar ressursadministrasjon.
Alt du trenger å vite for å begynne å generere med Hunyuan Motion
Hunyuan Motion genererer skjelettbasert 3D menneskelig bevegelse fra tekstmeldinger, designet for å integreres i vanlige 3D-animasjonspipeliner. Modellen fokuserer på realisme, tidsmessig jevnhet og instruksjonsfølging slik at handlinger, stiler og tempo gjenspeiler det du beskriver. Se prosjektoversikten og eksempler på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion bruker en tre-trinns prosess: storskala pre-trening på over 3000 timer med bevegelse for å lære brede prioriteringer, finjustering på 400 timer med kuraterte høykvalitetsdata for detaljer og jevnhet, og forsterkningslæring med menneskelig tilbakemelding for ytterligere å forbedre instruksjonsjustering og naturlighet. Det tekniske sammendraget og treningsnotatene er i det offisielle depotet på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Begge er en del av Hunyuan Motion. HY-Motion-1.0 er standardmodellen med ~1,0B parametere som maksimerer instruksjonsfølging og bevegelseskvalitet, mens HY-Motion-1.0-Lite (~0,46B) er optimalisert for lettere distribusjoner og raskere behandlingstid. Velg basert på GPU-budsjettet og bevegelseskvalitetsbehovene dine. Modellnedlastingsveiledning er gitt på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Installer PyTorch og prosjektkravene, last ned de forhåndstrente vektene i henhold til depotets instruksjoner, og velg deretter ditt foretrukne grensesnitt: bruk CLI for batch-meldinger eller start Gradio-appen for et interaktivt brukergrensesnitt. En trinnvis hurtigstart er beskrevet på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ja. Hunyuan Motion kan eventuelt bruke en varighetsestimator og meldingsomskrivingsmodul for å forbedre tempo og klarhet. Du kan aktivere eller deaktivere disse modulene via enkle flagg. Hvis de ikke er tilgjengelige, kan du eksplisitt slå dem av for å unngå tilkoblingsfeil, som beskrevet i depotets bruksnotater på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion støtter macOS, Windows og Linux for inferens. Installasjonsinstruksjoner, avhengighetslister og verktøy for både CLI og Gradio er tilgjengelige på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ja. Prosjektet inkluderer en Gradio-app du kan kjøre lokalt for interaktiv visualisering. Det offisielle depotet peker også til en Hugging Face Space og et offisielt nettsted for å prøve modellen. Finn lenker og oppsett på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Fordi Hunyuan Motion produserer skjelettbasert bevegelse, kan den retargetes til riggene dine, blandes med eksisterende klipp og føres gjennom DCC-verktøyene dine for polering. CLI er egnet for batch-jobber, mens Gradio-appen støtter kreativ utforsking og gjennomgang før import. Lær mer på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Gjør meldinger om til produksjonsklar skjelettanimasjon i dag. Følg hurtigstarten i det offisielle depotet, start Gradio-appen for umiddelbar visualisering, og iterer raskt med CLI for batch-bevegelsesgenerering. Alt du trenger for å distribuere Hunyuan Motion lokalt – inkludert avhengigheter, sjekkpunkter og bruksnotater – er tilgjengelig på github.com.
Utforsk flere AI-modeller fra samme leverandør
Transformer ideene og bildene dine til fantastiske, produksjonsklare 3D-ressurser med Tencents revolusjonerende Hunyuan 3D. Med avanserte diffusjonsmodeller, profesjonell tekstursyntese og sømløs arbeidsflytintegrasjon for spillutvikling, produktdesign og digital kunst.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Transformer tekst og bilder til 3D-modeller av høy kvalitet. Slipp løs ditt kreative potensial.
Gi portretter liv. Lag uttrykksfulle snakkende-hode-videoer fra et enkelt bilde og lyd.
Hunyuan Custom er Tencents toppmoderne multimodale videogenereringsløsning som lar brukere skape tilpassede, subjektskonsistente videoer ved hjelp av AI. Last opp et bilde, skriv en melding, eller legg til lyd-/videoinndata for å generere innhold av kinokvalitet på sekunder.