Story321.com
Story321.com
HjemBlogPriser
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Hjem
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogPriser
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
HjemVideoBillede3DSkrivning
Story321.com

Story321.com er historiefortællings-AI'en for forfattere og historiefortællere til at skabe og dele deres historier, bøger, manuskripter, podcasts, videoer og mere med AI-assistance.

Følg os
X
Products
✍️Writing

Tekstskabelse

🖼️Image

Billedskabelse

🎬Video

Videoskabelse

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Virksomhed
  • Om os
  • Priser
  • Servicevilkår
  • Privatlivspolitik
  • Refusionspolitik
  • Ansvarsfraskrivelse
Story321.com

Story321.com er historiefortællings-AI'en for forfattere og historiefortællere til at skabe og dele deres historier, bøger, manuskripter, podcasts, videoer og mere med AI-assistance.

Products
✍️Writing

Tekstskabelse

🖼️Image

Billedskabelse

🎬Video

Videoskabelse

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Virksomhed
  • Om os
  • Priser
  • Servicevilkår
  • Privatlivspolitik
  • Refusionspolitik
  • Ansvarsfraskrivelse
Følg os
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Alle rettigheder forbeholdes

Made with ❤️ for writers and storytellers
    1. Hjem
    2. AI-modeller
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 – Tekst-til-3D menneskelig bevægelsesgenerering i stor skala

    Hunyuan Motion bringer naturligt sprog til live med høj-kvalitets, skeletbaseret 3D-animation

    Hunyuan Motion er en næste-generations tekst-til-3D menneskelig bevægelsesgenereringsmodelpakke, der omdanner almindelige engelske beskeder til flydende, realistisk, skeletbaseret animation. Drevet af en billion-parameter Diffusion Transformer trænet med Flow Matching, skalerer Hunyuan Motion instruktionsfølgning, bevægelsesdetaljer og temporal jævnhed til et nyt niveau. Projektet tilbyder klar-til-brug CLI og en interaktiv Gradio-app til hurtige iterationer, reproducerbare arbejdsgange og tværplatformskompatibilitet. Med storstilet præ-træning, høj-kvalitets finjustering og forstærkningslæring fra menneskelig feedback opnår Hunyuan Motion state-of-the-art kvalitet og pålidelighed til spil, film, VR/AR, virtuel produktion og digitale menneskelige pipelines. Udforsk den officielle open-source implementering, prætrænede vægte og quickstart-værktøjer på github.com.

    Tekst-til-Bevægelse
    3D Animation
    Hunyuan Motion

    Hvad er Hunyuan Motion?

    Hunyuan Motion er en serie af tekst-til-3D menneskelige bevægelsesgenereringsmodeller, der producerer skeletbaserede karakteranimationer direkte fra naturlige sprogbeskeder. Bygget på en Diffusion Transformer og trænet med Flow Matching, skalerer Hunyuan Motion til billion-parameter niveauet for markant at forbedre instruktionsfølgning og bevægelseskvalitet sammenlignet med tidligere open-source systemer. Træningspipelinen kombinerer tre faser – massiv præ-træning på divers menneskelig bevægelse, finjustering på kuraterede høj-kvalitets sekvenser og forstærkningslæring med menneskelig feedback – for at levere jævn, fysisk plausibel bevægelse, der stemmer overens med detaljerede tekstlige anvisninger. Resultatet er en prompt-til-animation arbejdsgang, der integreres problemfrit i moderne 3D-pipelines. Projektet leveres med en standardmodel (≈1.0B parametre) og en Lite-variant (≈0.46B parametre) til forskellige performance-envelopes, sammen med tværplatformssupport, batch-venlig CLI og en nem Gradio UI til interaktiv udforskning. Fuldstændige detaljer, opdateringer og brugsanvisninger er tilgængelige på det officielle repository på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Diffusion Transformer med Flow Matching skaleret til ~1B parametre for overlegen instruktionsfølgning og bevægelseskvalitet [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Tre-trins træning: storstilet præ-træning, høj-kvalitets finjustering og RLHF for naturlig, sammenhængende bevægelse [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Klar-til-brug CLI og Gradio-app til hurtig lokal inferens og interaktiv visualisering [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Nøglefunktioner

    Hvad gør Hunyuan Motion anderledes

    Diffusion Transformer + Flow Matching i billion-skala

    Hunyuan Motion skalerer en DiT backbone med Flow Matching til ~1.0B parametre, hvilket øger instruktionsfølgning og bevægelseskvalitet, samtidig med at stabiliteten bevares på tværs af frames. Se den officielle modelbeskrivelse og træningsoversigt på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Tre-trins træningspipeline

    Storstilet præ-træning på 3.000+ timers bevægelsesdata bygger brede priors; 400 timers kurateret finjustering forbedrer detaljer og jævnhed; RL fra menneskelig feedback forfiner naturlighed og prompt-overholdelse. Detaljer er dokumenteret på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Model zoo: Standard og Lite

    Vælg HY-Motion-1.0 (~1.0B parametre) for state-of-the-art bevægelsesfidelity eller HY-Motion-1.0-Lite (~0.46B) for lettere implementeringer. Repository'et indeholder vægte og instruktioner til hurtig opsætning [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Tekst-først bevægelsesgenerering

    Hunyuan Motion tager almindelige sprogprompter og outputter bevægelse, der stemmer overens med den tilsigtede handling, stil og pacing, hvilket muliggør kreativ kontrol uden at hånd-animere hver pose.

    Prompt engineering og varighedsestimering

    Tilslut eventuelt en LLM-baseret varighedsestimator og prompt-omskrivningsmodul for at forbedre pacing og klarhed. Hunyuan Motion eksponerer simple flag for at aktivere eller deaktivere disse hjælpere efter behov [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI og Gradio inkluderet

    Kør batch-jobs via CLI'en for store prompt-sæt, eller spin en lokal Gradio-server op til interaktiv visualisering. Disse værktøjer vedligeholdes i det officielle repo med klare instruktioner og eksempler på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Tværplatformssupport

    Hunyuan Motion kører på macOS, Windows og Linux, hvilket hjælper blandede teams med at dele arbejdsgange. Repo'et indeholder krav og scripts til konsistent opsætning og inferens [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Produktionsvenlige outputs

    Ved at generere skeletbaseret bevægelse passer Hunyuan Motion ind i riggede karakterpipelines og understøtter downstream retargeting, blending og oprydning ved hjælp af velkendte DCC-værktøjskæder.

    Hvordan Hunyuan Motion fungerer

    Fra prompt til skeletanimation

    1

    Instruktionsparsing og varighedsplanlægning

    En bruger skriver en naturlig sprogprompt, der beskriver den ønskede handling, stil og pacing. Hunyuan Motion kan eventuelt bruge et prompt-omskrivnings- og varighedsestimeringsmodul til at afklare hensigt, udlede timing og standardisere formulering før generering. Dette trin øger justeringen mellem tekstbeskrivelsen og bevægelsesresultatet, især på komplekse eller flertrins handlinger som dokumenteret i det officielle repository på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    Flow-Matched DiT sampling og skeletsyntese

    Hunyuan Motion sampler bevægelsestrajektorier med en Diffusion Transformer trænet via Flow Matching. Modellen outputter jævn, temporalt sammenhængende, skeletbaseret 3D-bevægelse, der overholder prompten. Resultatet kan ses interaktivt i Gradio-appen eller gemmes via CLI'en til integration i din 3D-pipeline. Fuldstændige brugsanvisninger findes på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hvor kan man bruge Hunyuan Motion

    Fra prævisualisering til endelig animation

    Spiludvikling og prototyping

    Brug Hunyuan Motion til hurtigt at generere løbe-, hoppe-, angrebs-, emote- og traverseringsbevægelser til at prototype gameplay og iterere på karakterfølelse. Designere kan teste promptvariationer og hurtigt eksportere skeletbaseret bevægelse til retargeting til in-game rigs. For større biblioteker understøtter CLI'en batch-inferens og konsistent outputnavngivning. Det officielle repo viser den anbefalede arbejdsgang og flag på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Film, VFX og virtuel produktion

    I filmiske pipelines accelererer Hunyuan Motion previz og blocking. Instruktører kan skitsere hensigt som tekst, lade Hunyuan Motion generere baseline-bevægelse og give den til animatorer til forfining. Den jævne, instruktionsfølgende adfærd hjælper med at holde revisioner stramme og forudsigelige på tværs af shots.

    Digitale mennesker og virtuelle influencers

    Par Hunyuan Motion med digitale mennesker for at syntetisere udtryksfulde gestus, idle loops og stiliserede handlinger. Fordi Hunyuan Motion er prompt-baseret, kan ikke-tekniske skabere udforske bevægelsesideer hurtigere og samarbejde med tekniske direktører om polering og levering.

    VR/AR og immersive oplevelser

    Hunyuan Motion understøtter hurtig oprettelse af ambient crowd-bevægelse, guidede interaktioner og narrative beats, der forbedrer fordybelsen. Skeletbaserede outputs gør det ligetil at retarget animationer til headset-optimerede rigs og runtime-begrænsninger.

    Uddannelse, forskning og laboratorier

    Undervisere og forskere kan bruge Hunyuan Motion som en reference for Diffusion Transformer og Flow Matching tilgange til bevægelse. Projektets open-source kode og model zoo muliggør reproducerbare eksperimenter og instruktionsfølgende benchmarks [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Studier, der bygger interne bevægelsesbiblioteker

    Når man bygger et konsistent bibliotek af house-style bevægelser, giver Hunyuan Motion et sammenhængende grundlag. Teams kan specificere tone, pacing og stil i tekst, generere konsistente takes og standardisere gennemgang via Gradio-appen, før de indlæses i asset management.

    Ofte stillede spørgsmål

    Alt hvad du behøver at vide for at begynde at generere med Hunyuan Motion

    Hvad genererer Hunyuan Motion egentlig?

    Hunyuan Motion genererer skeletbaseret 3D menneskelig bevægelse fra tekstprompter, designet til at integreres i almindelige 3D-animationspipelines. Modellen fokuserer på realisme, temporal jævnhed og instruktionsfølgning, så handlinger, stilarter og pacing afspejler det, du beskriver. Se projektoversigten og eksempler på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hvordan er Hunyuan Motion trænet?

    Hunyuan Motion bruger en tre-trins proces: storstilet præ-træning på over 3.000 timers bevægelse for at lære brede priors, finjustering på 400 timers kuraterede høj-kvalitets data for detaljer og jævnhed og forstærkningslæring med menneskelig feedback for yderligere at forfine instruktionstilpasning og naturlighed. Den tekniske opsummering og træningsnoter er i det officielle repo på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hvad er forskellen mellem HY-Motion-1.0 og HY-Motion-1.0-Lite?

    Begge er en del af Hunyuan Motion. HY-Motion-1.0 er standardmodellen med ~1.0B parametre, der maksimerer instruktionsfølgning og bevægelsesfidelity, mens HY-Motion-1.0-Lite (~0.46B) er optimeret til lettere implementeringer og hurtigere turnaround. Vælg baseret på dit GPU-budget og behov for bevægelseskvalitet. Model download vejledning findes på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hvordan kører jeg Hunyuan Motion lokalt?

    Installer PyTorch og projektkravene, download de prætrænede vægte efter repo'ets instruktioner, og vælg derefter din foretrukne grænseflade: brug CLI'en til batch-prompter, eller start Gradio-appen for en interaktiv UI. En trin-for-trin quickstart er detaljeret på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Kan Hunyuan Motion estimere varighed og omskrive prompter automatisk?

    Ja. Hunyuan Motion kan eventuelt bruge en varighedsestimator og prompt-omskrivningsmodul til at forbedre pacing og klarhed. Du kan aktivere eller deaktivere disse moduler via simple flag. Hvis de ikke er tilgængelige, kan du eksplicit slå dem fra for at undgå forbindelsesfejl, som beskrevet i repository'ets brugsanvisninger på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hvilke operativsystemer understøtter Hunyuan Motion?

    Hunyuan Motion understøtter macOS, Windows og Linux til inferens. Installationsinstruktioner, afhængighedslister og værktøjer til både CLI og Gradio er tilgængelige på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Er der en interaktiv demo?

    Ja. Projektet inkluderer en Gradio-app, du kan køre lokalt til interaktiv visualisering. Det officielle repo peger også på et Hugging Face Space og et officielt websted til at prøve modellen. Find links og opsætning på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hvordan integrerer jeg Hunyuan Motion outputs i min pipeline?

    Fordi Hunyuan Motion producerer skeletbaseret bevægelse, kan den retargetes til dine rigs, blandes med eksisterende klip og føres gennem dine DCC-værktøjer til polering. CLI'en er velegnet til batch-jobs, mens Gradio-appen understøtter kreativ udforskning og gennemgang før import. Lær mere på [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Begynd at skabe med Hunyuan Motion

    Omdan prompter til produktionsklar skeletanimation i dag. Følg quickstarten i det officielle repository, start Gradio-appen for øjeblikkelig visualisering, og iterer hurtigt med CLI'en til batch-bevægelsesgenerering. Alt hvad du behøver for at implementere Hunyuan Motion lokalt – inklusive afhængigheder, checkpoints og brugsanvisninger – er tilgængeligt på github.com.

    Relaterede Modeller

    Udforsk flere AI-modeller fra samme udbyder

    Hunyuan 3D

    Transformer dine ideer og billeder til fantastiske, produktionsklare 3D-aktiver med Tencents revolutionerende Hunyuan 3D. Med avancerede diffusionsmodeller, professionel tekstursyntese og problemfri workflow-integration til spiludvikling, produktdesign og digital kunst.

    Lær mere

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    Lær mere

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    Lær mere

    Generer fantastiske 3D-aktiver ubesværet med Hunyuan World

    Transformer tekst og billeder til 3D-modeller af høj kvalitet. Frigør dit kreative potentiale.

    Lær mere

    Generer livagtige videoavatarer med Hunyuan Video Avatar

    Bring portrætter til live. Opret udtryksfulde talende hoved-videoer fra et enkelt billede og lyd.

    Lær mere

    Hunyuan Custom – Næste generations AI multimodal videogenereringsværktøj

    Hunyuan Custom er Tencents avancerede multimodale videogenereringsløsning, der giver brugerne mulighed for at skabe tilpassede, motiv-konsistente videoer ved hjælp af AI. Upload et billede, skriv en prompt, eller tilføj lyd-/videoinput for at generere indhold i biografkvalitet på få sekunder.

    Lær mere
    Se Alle Modeller