Hunyuan Motion menghidupkan bahasa alami dengan animasi 3D berbasis kerangka yang sangat detail
Hunyuan Motion adalah rangkaian model generasi gerakan manusia 3D dari teks generasi berikutnya yang mengubah perintah bahasa Inggris sederhana menjadi animasi berbasis kerangka yang realistis dan mengalir. Ditenagai oleh Diffusion Transformer satu miliar parameter yang dilatih dengan Flow Matching, Hunyuan Motion meningkatkan kemampuan mengikuti instruksi, detail gerakan, dan kelancaran temporal ke tingkat yang baru. Proyek ini menyediakan CLI siap pakai dan aplikasi Gradio interaktif untuk iterasi cepat, alur kerja yang dapat direproduksi, dan kompatibilitas lintas platform. Dengan pra-pelatihan skala besar, penyempurnaan berkualitas tinggi, dan pembelajaran penguatan dari umpan balik manusia, Hunyuan Motion mencapai kualitas dan keandalan terbaik untuk game, film, VR/AR, produksi virtual, dan alur digital human. Jelajahi implementasi sumber terbuka resmi, bobot yang telah dilatih sebelumnya, dan alat mulai cepat di github.com.

Hunyuan Motion adalah serangkaian model generasi gerakan manusia 3D dari teks yang menghasilkan animasi karakter berbasis kerangka langsung dari perintah bahasa alami. Dibangun di atas Diffusion Transformer dan dilatih dengan Flow Matching, Hunyuan Motion berskala hingga tingkat satu miliar parameter untuk secara signifikan meningkatkan kemampuan mengikuti instruksi dan kualitas gerakan dibandingkan dengan sistem sumber terbuka sebelumnya. Alur pelatihan menggabungkan tiga fase—pra-pelatihan besar-besaran pada berbagai gerakan manusia, penyempurnaan pada urutan berkualitas tinggi yang dikurasi, dan pembelajaran penguatan dengan umpan balik manusia—untuk menghasilkan gerakan yang halus, masuk akal secara fisik yang selaras dengan arahan tekstual yang terperinci. Hasilnya adalah alur kerja perintah-ke-animasi yang terintegrasi dengan mulus ke dalam alur 3D modern. Proyek ini hadir dengan model standar (≈1,0 miliar parameter) dan varian Lite (≈0,46 miliar parameter) untuk berbagai kebutuhan performa, bersama dengan dukungan lintas platform, CLI yang ramah batch, dan UI Gradio yang mudah untuk eksplorasi interaktif. Detail lengkap, pembaruan, dan instruksi penggunaan tersedia di repositori resmi di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer dengan Flow Matching yang diskalakan hingga ~1 miliar parameter untuk kemampuan mengikuti instruksi dan kualitas gerakan yang superior [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Pelatihan tiga tahap: pra-pelatihan skala besar, penyempurnaan berkualitas tinggi, dan RLHF untuk gerakan yang alami dan koheren [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
CLI dan aplikasi Gradio siap pakai untuk inferensi lokal cepat dan visualisasi interaktif [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Apa yang membuat Hunyuan Motion berbeda
Hunyuan Motion menskalakan backbone DiT dengan Flow Matching hingga ~1,0 miliar parameter, meningkatkan kemampuan mengikuti instruksi dan kualitas gerakan sambil mempertahankan stabilitas di seluruh frame. Lihat deskripsi model resmi dan ikhtisar pelatihan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Pra-pelatihan skala besar pada 3.000+ jam data gerakan membangun prior yang luas; 400 jam penyempurnaan yang dikurasi meningkatkan detail dan kelancaran; RL dari umpan balik manusia menyempurnakan kenaturalan dan kepatuhan perintah. Detailnya didokumentasikan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Pilih HY-Motion-1.0 (~1,0 miliar parameter) untuk fidelitas gerakan terbaik atau HY-Motion-1.0-Lite (~0,46B) untuk penerapan yang lebih ringan. Repositori menyediakan bobot dan instruksi untuk pengaturan cepat [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion mengambil perintah bahasa sederhana dan menghasilkan gerakan yang selaras dengan tindakan, gaya, dan kecepatan yang dimaksudkan, memungkinkan kontrol kreatif tanpa menganimasikan setiap pose secara manual.
Secara opsional, hubungkan estimator durasi berbasis LLM dan modul penulis ulang perintah untuk meningkatkan kecepatan dan kejelasan. Hunyuan Motion mengekspos flag sederhana untuk mengaktifkan atau menonaktifkan pembantu ini sesuai kebutuhan [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Jalankan pekerjaan batch melalui CLI untuk set perintah besar atau putar server Gradio lokal untuk visualisasi interaktif. Alat ini dipelihara di repo resmi dengan instruksi dan contoh yang jelas di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion berjalan di macOS, Windows, dan Linux, membantu tim campuran berbagi alur kerja. Repo menyertakan persyaratan dan skrip untuk pengaturan dan inferensi yang konsisten [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Dengan menghasilkan gerakan berbasis kerangka, Hunyuan Motion cocok dengan alur karakter yang di-rig dan mendukung penargetan ulang hilir, pencampuran, dan pembersihan menggunakan rantai alat DCC yang familiar.
Dari perintah hingga animasi kerangka
Pengguna menulis perintah bahasa alami yang menjelaskan tindakan, gaya, dan kecepatan yang diinginkan. Hunyuan Motion secara opsional dapat menggunakan penulisan ulang perintah dan modul estimasi durasi untuk memperjelas maksud, menyimpulkan waktu, dan menstandarkan frasa sebelum pembuatan. Langkah ini meningkatkan keselarasan antara deskripsi teks dan hasil gerakan, terutama pada tindakan kompleks atau multi-langkah seperti yang didokumentasikan dalam repositori resmi di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion mengambil sampel lintasan gerakan dengan Diffusion Transformer yang dilatih melalui Flow Matching. Model menghasilkan gerakan 3D berbasis kerangka yang halus, koheren secara temporal yang sesuai dengan perintah. Hasilnya dapat dilihat secara interaktif di aplikasi Gradio atau disimpan melalui CLI untuk integrasi ke dalam alur 3D Anda. Instruksi penggunaan lengkap disediakan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Dari pravisualisasi hingga animasi akhir
Gunakan Hunyuan Motion untuk dengan cepat menghasilkan gerakan lari, lompat, serang, emote, dan traversal untuk membuat prototipe gameplay dan melakukan iterasi pada nuansa karakter. Desainer dapat menguji variasi perintah dan dengan cepat mengekspor gerakan berbasis kerangka untuk penargetan ulang ke rig dalam game. Untuk pustaka yang lebih besar, CLI mendukung inferensi batch dan penamaan output yang konsisten. Repo resmi menunjukkan alur kerja dan flag yang direkomendasikan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Dalam alur sinematik, Hunyuan Motion mempercepat previz dan blocking. Sutradara dapat membuat sketsa maksud sebagai teks, membiarkan Hunyuan Motion menghasilkan gerakan dasar, dan menyerahkannya kepada animator untuk penyempurnaan. Perilaku yang halus dan mengikuti instruksi membantu menjaga revisi tetap ketat dan dapat diprediksi di seluruh bidikan.
Pasangkan Hunyuan Motion dengan digital human untuk mensintesis gerakan ekspresif, loop idle, dan tindakan bergaya. Karena Hunyuan Motion berbasis perintah, pembuat non-teknis dapat menjelajahi ide gerakan lebih cepat dan berkolaborasi dengan direktur teknis untuk polesan dan pengiriman.
Hunyuan Motion mendukung pembuatan cepat gerakan kerumunan ambien, interaksi terpandu, dan ketukan naratif yang meningkatkan imersi. Output berbasis kerangka membuatnya mudah untuk menargetkan ulang animasi ke rig yang dioptimalkan untuk headset dan batasan runtime.
Pendidik dan peneliti dapat menggunakan Hunyuan Motion sebagai referensi untuk pendekatan Diffusion Transformer dan Flow Matching untuk gerakan. Kode sumber terbuka dan model zoo proyek memungkinkan eksperimen yang dapat direproduksi dan tolok ukur kemampuan mengikuti instruksi [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Saat membangun pustaka gerakan gaya rumah yang konsisten, Hunyuan Motion menyediakan basis yang koheren. Tim dapat menentukan nada, kecepatan, dan gaya dalam teks, menghasilkan pengambilan yang konsisten, dan menstandarkan ulasan melalui aplikasi Gradio sebelum dimasukkan ke dalam manajemen aset.
Semua yang perlu Anda ketahui untuk mulai membuat dengan Hunyuan Motion
Hunyuan Motion menghasilkan gerakan manusia 3D berbasis kerangka dari perintah teks, yang dirancang untuk diintegrasikan ke dalam alur animasi 3D umum. Model ini berfokus pada realisme, kelancaran temporal, dan kemampuan mengikuti instruksi sehingga tindakan, gaya, dan kecepatan mencerminkan apa yang Anda jelaskan. Lihat ikhtisar proyek dan contoh di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion menggunakan proses tiga tahap: pra-pelatihan skala besar pada lebih dari 3.000 jam gerakan untuk mempelajari prior yang luas, penyempurnaan pada 400 jam data berkualitas tinggi yang dikurasi untuk detail dan kelancaran, dan pembelajaran penguatan dengan umpan balik manusia untuk lebih menyempurnakan keselarasan instruksi dan kenaturalan. Ringkasan teknis dan catatan pelatihan ada di repo resmi di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Keduanya adalah bagian dari Hunyuan Motion. HY-Motion-1.0 adalah model standar, ~1,0 miliar parameter yang memaksimalkan kemampuan mengikuti instruksi dan fidelitas gerakan, sedangkan HY-Motion-1.0-Lite (~0,46B) dioptimalkan untuk penerapan yang lebih ringan dan turnaround yang lebih cepat. Pilih berdasarkan anggaran GPU dan kebutuhan kualitas gerakan Anda. Panduan unduhan model disediakan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Instal PyTorch dan persyaratan proyek, unduh bobot yang telah dilatih sebelumnya mengikuti instruksi repo, lalu pilih antarmuka pilihan Anda: gunakan CLI untuk perintah batch atau luncurkan aplikasi Gradio untuk UI interaktif. Mulai cepat langkah demi langkah dijelaskan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ya. Hunyuan Motion secara opsional dapat menggunakan estimator durasi dan modul penulisan ulang perintah untuk meningkatkan kecepatan dan kejelasan. Anda dapat mengaktifkan atau menonaktifkan modul ini melalui flag sederhana. Jika tidak tersedia, Anda dapat secara eksplisit mematikannya untuk menghindari kesalahan koneksi, seperti yang dijelaskan dalam catatan penggunaan repositori di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion mendukung macOS, Windows, dan Linux untuk inferensi. Instruksi instalasi, daftar dependensi, dan perkakas untuk CLI dan Gradio tersedia di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ya. Proyek ini menyertakan aplikasi Gradio yang dapat Anda jalankan secara lokal untuk visualisasi interaktif. Repo resmi juga menunjuk ke Hugging Face Space dan situs resmi untuk mencoba model. Temukan tautan dan pengaturan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Karena Hunyuan Motion menghasilkan gerakan berbasis kerangka, ia dapat ditargetkan ulang ke rig Anda, dicampur dengan klip yang ada, dan dilewatkan melalui alat DCC Anda untuk pemolesan. CLI cocok untuk pekerjaan batch, sedangkan aplikasi Gradio mendukung eksplorasi dan ulasan kreatif sebelum impor. Pelajari lebih lanjut di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ubah perintah menjadi animasi kerangka siap produksi hari ini. Ikuti mulai cepat di repositori resmi, luncurkan aplikasi Gradio untuk visualisasi instan, dan lakukan iterasi cepat dengan CLI untuk pembuatan gerakan batch. Semua yang Anda butuhkan untuk menerapkan Hunyuan Motion secara lokal—termasuk dependensi, checkpoint, dan catatan penggunaan—tersedia di github.com.
Jelajahi lebih banyak model AI dari penyedia yang sama
Ubah ide dan gambar Anda menjadi aset 3D siap produksi yang menakjubkan dengan Hunyuan 3D revolusioner dari Tencent. Menampilkan model difusi canggih, sintesis tekstur profesional, dan integrasi alur kerja yang mulus untuk pengembangan game, desain produk, dan seni digital.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Ubah teks & gambar menjadi model 3D berkualitas tinggi. Bebaskan potensi kreatif Anda.
Hidupkan potret. Buat video kepala berbicara yang ekspresif dari satu gambar dan audio.
Hunyuan Custom adalah solusi pembuatan video multimodal tercanggih dari Tencent yang memungkinkan pengguna membuat video yang dipersonalisasi dan konsisten subjeknya menggunakan AI. Unggah gambar, ketik perintah, atau tambahkan input audio/video untuk menghasilkan konten berkualitas sinematik dalam hitungan detik.