Story321.com
Story321.com
HomeBlogPrezzi
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Home
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogPrezzi
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
HomeVideoImmagine3DScrittura
Story321.com

Story321.com è la piattaforma di intelligenza artificiale per scrittori e narratori che consente di creare e condividere storie, libri, sceneggiature, podcast, video e altro ancora, con l'ausilio dell'IA.

Seguici
X
Products
✍️Writing

Creazione di Testo

🖼️Image

Creazione di Immagini

🎬Video

Creazione di Video

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Azienda
  • Chi siamo
  • Prezzi
  • Termini di servizio
  • Informativa sulla privacy
  • Politica di rimborso
  • Disclaimer
Story321.com

Story321.com è la piattaforma di intelligenza artificiale per scrittori e narratori che consente di creare e condividere storie, libri, sceneggiature, podcast, video e altro ancora, con l'ausilio dell'IA.

Products
✍️Writing

Creazione di Testo

🖼️Image

Creazione di Immagini

🎬Video

Creazione di Video

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Azienda
  • Chi siamo
  • Prezzi
  • Termini di servizio
  • Informativa sulla privacy
  • Politica di rimborso
  • Disclaimer
Seguici
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Tutti i diritti riservati

Made with ❤️ for writers and storytellers
    1. Home
    2. Modelli di IA
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — Generazione di movimento umano da testo a 3D su larga scala

    Hunyuan Motion porta in vita il linguaggio naturale con animazioni 3D ad alta fedeltà basate su scheletro

    Hunyuan Motion è una suite di modelli di generazione di movimento umano da testo a 3D di nuova generazione che trasforma semplici istruzioni in inglese in animazioni fluide, realistiche e basate su scheletro. Alimentato da un Diffusion Transformer da un miliardo di parametri addestrato con Flow Matching, Hunyuan Motion porta il rispetto delle istruzioni, i dettagli del movimento e la fluidità temporale a un nuovo livello. Il progetto fornisce una CLI pronta all'uso e un'app Gradio interattiva per iterazioni rapide, flussi di lavoro riproducibili e compatibilità multipiattaforma. Grazie al pre-addestramento su larga scala, alla messa a punto di alta qualità e all'apprendimento per rinforzo dal feedback umano, Hunyuan Motion raggiunge qualità e affidabilità all'avanguardia per giochi, film, VR/AR, produzione virtuale e pipeline di digital human. Esplora l'implementazione open-source ufficiale, i pesi pre-addestrati e gli strumenti di avvio rapido su github.com.

    Testo-a-Movimento
    Animazione 3D
    Hunyuan Motion

    Cos'è Hunyuan Motion?

    Hunyuan Motion è una serie di modelli di generazione di movimento umano da testo a 3D che producono animazioni di personaggi basate su scheletro direttamente da istruzioni in linguaggio naturale. Costruito su un Diffusion Transformer e addestrato con Flow Matching, Hunyuan Motion scala al livello di un miliardo di parametri per migliorare significativamente il rispetto delle istruzioni e la qualità del movimento rispetto ai precedenti sistemi open-source. La pipeline di addestramento combina tre fasi: pre-addestramento massiccio su diversi movimenti umani, messa a punto su sequenze curate di alta qualità e apprendimento per rinforzo con feedback umano, per fornire un movimento fluido, fisicamente plausibile che si allinea a istruzioni testuali dettagliate. Il risultato è un flusso di lavoro da prompt ad animazione che si integra perfettamente nelle moderne pipeline 3D. Il progetto viene fornito con un modello standard (≈1,0 miliardi di parametri) e una variante Lite (≈0,46 miliardi di parametri) per diverse esigenze di prestazioni, insieme al supporto multipiattaforma, una CLI adatta all'elaborazione batch e una semplice interfaccia utente Gradio per l'esplorazione interattiva. Dettagli completi, aggiornamenti e istruzioni per l'uso sono disponibili nel repository ufficiale su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Diffusion Transformer con Flow Matching scalato a ~1 miliardo di parametri per un rispetto delle istruzioni e una qualità del movimento superiori [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Addestramento in tre fasi: pre-addestramento su larga scala, messa a punto di alta qualità e RLHF per un movimento naturale e coerente [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    CLI e app Gradio pronte all'uso per un'inferenza locale rapida e una visualizzazione interattiva [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Caratteristiche principali

    Cosa rende Hunyuan Motion diverso

    Diffusion Transformer + Flow Matching su scala di miliardi

    Hunyuan Motion scala una dorsale DiT con Flow Matching a ~1,0 miliardi di parametri, aumentando il rispetto delle istruzioni e la qualità del movimento preservando la stabilità tra i fotogrammi. Consulta la descrizione ufficiale del modello e la panoramica dell'addestramento su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Pipeline di addestramento in tre fasi

    Il pre-addestramento su larga scala su oltre 3.000 ore di dati di movimento crea ampie priorità; 400 ore di messa a punto curata migliorano i dettagli e la fluidità; l'RL dal feedback umano affina la naturalezza e l'aderenza al prompt. I dettagli sono documentati su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Zoo di modelli: Standard e Lite

    Scegli HY-Motion-1.0 (~1,0 miliardi di parametri) per una fedeltà del movimento all'avanguardia o HY-Motion-1.0-Lite (~0,46 miliardi) per implementazioni più leggere. Il repository fornisce pesi e istruzioni per una configurazione rapida [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Generazione di movimento incentrata sul testo

    Hunyuan Motion prende prompt in linguaggio semplice e produce movimento che si allinea all'azione, allo stile e al ritmo previsti, consentendo il controllo creativo senza animare a mano ogni posa.

    Ingegneria del prompt e stima della durata

    Facoltativamente, collega un modulo di stima della durata e di riscrittura del prompt basato su LLM per migliorare il ritmo e la chiarezza. Hunyuan Motion espone semplici flag per abilitare o disabilitare questi helper secondo necessità [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI e Gradio inclusi

    Esegui lavori batch tramite la CLI per set di prompt di grandi dimensioni o avvia un server Gradio locale per la visualizzazione interattiva. Questi strumenti sono gestiti nel repository ufficiale con istruzioni ed esempi chiari su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Supporto multipiattaforma

    Hunyuan Motion funziona su macOS, Windows e Linux, aiutando i team misti a condividere i flussi di lavoro. Il repository include requisiti e script per una configurazione e un'inferenza coerenti [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Output adatti alla produzione

    Generando movimento basato su scheletro, Hunyuan Motion si adatta alle pipeline di personaggi rigged e supporta il retargeting a valle, la fusione e la pulizia utilizzando toolchain DCC familiari.

    Come funziona Hunyuan Motion

    Dal prompt all'animazione dello scheletro

    1

    Analisi delle istruzioni e pianificazione della durata

    Un utente scrive un prompt in linguaggio naturale che descrive l'azione, lo stile e il ritmo desiderati. Hunyuan Motion può facoltativamente utilizzare un modulo di riscrittura del prompt e di stima della durata per chiarire l'intento, dedurre i tempi e standardizzare la formulazione prima della generazione. Questo passaggio aumenta l'allineamento tra la descrizione testuale e il risultato del movimento, soprattutto su azioni complesse o a più passaggi, come documentato nel repository ufficiale su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    Campionamento DiT con Flow Matching e sintesi dello scheletro

    Hunyuan Motion campiona le traiettorie di movimento con un Diffusion Transformer addestrato tramite Flow Matching. Il modello produce un movimento 3D basato su scheletro fluido, temporalmente coerente e che aderisce al prompt. Il risultato può essere visualizzato in modo interattivo nell'app Gradio o salvato tramite la CLI per l'integrazione nella tua pipeline 3D. Le istruzioni complete per l'uso sono fornite su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Dove usare Hunyuan Motion

    Dalla previsualizzazione all'animazione finale

    Sviluppo e prototipazione di giochi

    Usa Hunyuan Motion per generare rapidamente movimenti di corsa, salto, attacco, emote e attraversamento per prototipare il gameplay e iterare sulla sensazione del personaggio. I designer possono testare le variazioni del prompt ed esportare rapidamente il movimento basato su scheletro per il retargeting ai rig in-game. Per librerie più grandi, la CLI supporta l'inferenza batch e la denominazione coerente degli output. Il repository ufficiale mostra il flusso di lavoro e i flag consigliati su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Film, VFX e produzione virtuale

    Nelle pipeline cinematografiche, Hunyuan Motion accelera la previsualizzazione e il blocking. I registi possono abbozzare l'intento come testo, lasciare che Hunyuan Motion generi il movimento di base e consegnarlo agli animatori per la rifinitura. Il comportamento fluido e di rispetto delle istruzioni aiuta a mantenere le revisioni precise e prevedibili tra le riprese.

    Digital human e influencer virtuali

    Abbina Hunyuan Motion a digital human per sintetizzare gesti espressivi, loop di inattività e atti stilizzati. Poiché Hunyuan Motion è basato su prompt, i creatori non tecnici possono esplorare le idee di movimento più velocemente e collaborare con i direttori tecnici per la rifinitura e la consegna.

    VR/AR ed esperienze immersive

    Hunyuan Motion supporta la creazione rapida di movimenti di folla ambientali, interazioni guidate e ritmi narrativi che migliorano l'immersione. Gli output basati su scheletro rendono semplice il retargeting delle animazioni ai rig ottimizzati per il visore e ai vincoli di runtime.

    Istruzione, ricerca e laboratori

    Educatori e ricercatori possono utilizzare Hunyuan Motion come riferimento per gli approcci Diffusion Transformer e Flow Matching al movimento. Il codice open-source del progetto e lo zoo di modelli consentono esperimenti riproducibili e benchmark di rispetto delle istruzioni [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Studi che costruiscono librerie di movimento interne

    Quando si costruisce una libreria coerente di movimenti in stile house, Hunyuan Motion fornisce una base coerente. I team possono specificare tono, ritmo e stile nel testo, generare riprese coerenti e standardizzare la revisione tramite l'app Gradio prima di inserirli nella gestione delle risorse.

    Domande frequenti

    Tutto ciò che devi sapere per iniziare a generare con Hunyuan Motion

    Cosa genera esattamente Hunyuan Motion?

    Hunyuan Motion genera movimento umano 3D basato su scheletro da prompt di testo, progettato per integrarsi nelle comuni pipeline di animazione 3D. Il modello si concentra sul realismo, sulla fluidità temporale e sul rispetto delle istruzioni in modo che azioni, stili e ritmo riflettano ciò che descrivi. Consulta la panoramica del progetto e gli esempi su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Come viene addestrato Hunyuan Motion?

    Hunyuan Motion utilizza un processo in tre fasi: pre-addestramento su larga scala su oltre 3.000 ore di movimento per apprendere ampie priorità, messa a punto su 400 ore di dati curati di alta qualità per dettagli e fluidità e apprendimento per rinforzo con feedback umano per affinare ulteriormente l'allineamento delle istruzioni e la naturalezza. Il riepilogo tecnico e le note di addestramento sono nel repository ufficiale su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Qual è la differenza tra HY-Motion-1.0 e HY-Motion-1.0-Lite?

    Entrambi fanno parte di Hunyuan Motion. HY-Motion-1.0 è il modello standard da ~1,0 miliardi di parametri che massimizza il rispetto delle istruzioni e la fedeltà del movimento, mentre HY-Motion-1.0-Lite (~0,46 miliardi) è ottimizzato per implementazioni più leggere e tempi di risposta più rapidi. Scegli in base al tuo budget GPU e alle esigenze di qualità del movimento. Le istruzioni per il download del modello sono fornite su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Come posso eseguire Hunyuan Motion localmente?

    Installa PyTorch e i requisiti del progetto, scarica i pesi pre-addestrati seguendo le istruzioni del repository, quindi scegli l'interfaccia preferita: usa la CLI per i prompt batch o avvia l'app Gradio per un'interfaccia utente interattiva. Un avvio rapido passo-passo è dettagliato su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Hunyuan Motion può stimare la durata e riscrivere i prompt automaticamente?

    Sì. Hunyuan Motion può facoltativamente utilizzare un modulo di stima della durata e di riscrittura del prompt per migliorare il ritmo e la chiarezza. Puoi abilitare o disabilitare questi moduli tramite semplici flag. Se non sono disponibili, puoi disattivarli esplicitamente per evitare errori di connessione, come descritto nelle note sull'uso del repository su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Quali sistemi operativi supporta Hunyuan Motion?

    Hunyuan Motion supporta macOS, Windows e Linux per l'inferenza. Le istruzioni di installazione, gli elenchi di dipendenze e gli strumenti per CLI e Gradio sono disponibili su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Esiste una demo interattiva?

    Sì. Il progetto include un'app Gradio che puoi eseguire localmente per la visualizzazione interattiva. Il repository ufficiale punta anche a uno spazio Hugging Face e a un sito ufficiale per provare il modello. Trova link e configurazione su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Come posso integrare gli output di Hunyuan Motion nella mia pipeline?

    Poiché Hunyuan Motion produce movimento basato su scheletro, può essere retargeted ai tuoi rig, fuso con clip esistenti e passato attraverso i tuoi strumenti DCC per la rifinitura. La CLI è adatta per lavori batch, mentre l'app Gradio supporta l'esplorazione creativa e la revisione prima dell'importazione. Scopri di più su [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Inizia a creare con Hunyuan Motion

    Trasforma i prompt in animazioni di scheletri pronte per la produzione oggi stesso. Segui l'avvio rapido nel repository ufficiale, avvia l'app Gradio per la visualizzazione istantanea e itera velocemente con la CLI per la generazione di movimento batch. Tutto ciò di cui hai bisogno per implementare Hunyuan Motion localmente, incluse dipendenze, checkpoint e note sull'uso, è disponibile su github.com.

    Modelli correlati

    Scopri altri modelli di IA dello stesso provider

    Hunyuan 3D

    Trasforma le tue idee e immagini in straordinari asset 3D pronti per la produzione con il rivoluzionario Hunyuan 3D di Tencent. Dotato di modelli di diffusione avanzati, sintesi di texture professionale e integrazione perfetta del flusso di lavoro per lo sviluppo di giochi, la progettazione di prodotti e l'arte digitale.

    Scopri di più

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    Scopri di più

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    Scopri di più

    Genera straordinari asset 3D senza sforzo con Hunyuan World

    Trasforma testo e immagini in modelli 3D di alta qualità. Scatena il tuo potenziale creativo.

    Scopri di più

    Genera Avatar Video Realistici con Hunyuan Video Avatar

    Dai vita ai ritratti. Crea video espressivi di teste parlanti da una singola immagine e audio.

    Scopri di più

    Hunyuan Custom – Strumento di generazione video multimodale AI di nuova generazione

    Hunyuan Custom è la soluzione di generazione video multimodale all'avanguardia di Tencent che consente agli utenti di creare video personalizzati e coerenti con il soggetto utilizzando l'intelligenza artificiale. Carica un'immagine, digita un prompt o aggiungi input audio/video per generare contenuti di qualità cinematografica in pochi secondi.

    Scopri di più
    Visualizza tutti i modelli