Story321.com
Story321.com
BerandaBlogHarga
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Beranda
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogHarga
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
BerandaVideoGambar3DPenulisan
Story321.com

Story321.com adalah AI cerita untuk penulis dan pendongeng untuk membuat dan membagikan cerita, buku, skrip, podcast, video, dan lainnya dengan bantuan AI.

Ikuti Kami
X
Products
✍️Writing

Pembuatan Teks

🖼️Image

Pembuatan Gambar

🎬Video

Pembuatan Video

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Perusahaan
  • Tentang Kami
  • Harga
  • Ketentuan Layanan
  • Kebijakan Privasi
  • Kebijakan Pengembalian Dana
  • Penafian
Story321.com

Story321.com adalah AI cerita untuk penulis dan pendongeng untuk membuat dan membagikan cerita, buku, skrip, podcast, video, dan lainnya dengan bantuan AI.

Products
✍️Writing

Pembuatan Teks

🖼️Image

Pembuatan Gambar

🎬Video

Pembuatan Video

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Perusahaan
  • Tentang Kami
  • Harga
  • Ketentuan Layanan
  • Kebijakan Privasi
  • Kebijakan Pengembalian Dana
  • Penafian
Ikuti Kami
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Semua hak dilindungi undang-undang

Made with ❤️ for writers and storytellers
    1. Beranda
    2. Model AI
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — Pembuatan Gerakan Manusia 3D dari Teks dalam Skala Besar

    Hunyuan Motion menghidupkan bahasa alami dengan animasi 3D berbasis kerangka yang sangat detail

    Hunyuan Motion adalah rangkaian model generasi gerakan manusia 3D dari teks generasi berikutnya yang mengubah perintah bahasa Inggris sederhana menjadi animasi berbasis kerangka yang realistis dan mengalir. Ditenagai oleh Diffusion Transformer satu miliar parameter yang dilatih dengan Flow Matching, Hunyuan Motion meningkatkan kemampuan mengikuti instruksi, detail gerakan, dan kelancaran temporal ke tingkat yang baru. Proyek ini menyediakan CLI siap pakai dan aplikasi Gradio interaktif untuk iterasi cepat, alur kerja yang dapat direproduksi, dan kompatibilitas lintas platform. Dengan pra-pelatihan skala besar, penyempurnaan berkualitas tinggi, dan pembelajaran penguatan dari umpan balik manusia, Hunyuan Motion mencapai kualitas dan keandalan terbaik untuk game, film, VR/AR, produksi virtual, dan alur digital human. Jelajahi implementasi sumber terbuka resmi, bobot yang telah dilatih sebelumnya, dan alat mulai cepat di github.com.

    Teks-ke-Gerakan
    Animasi 3D
    Hunyuan Motion

    Apa itu Hunyuan Motion?

    Hunyuan Motion adalah serangkaian model generasi gerakan manusia 3D dari teks yang menghasilkan animasi karakter berbasis kerangka langsung dari perintah bahasa alami. Dibangun di atas Diffusion Transformer dan dilatih dengan Flow Matching, Hunyuan Motion berskala hingga tingkat satu miliar parameter untuk secara signifikan meningkatkan kemampuan mengikuti instruksi dan kualitas gerakan dibandingkan dengan sistem sumber terbuka sebelumnya. Alur pelatihan menggabungkan tiga fase—pra-pelatihan besar-besaran pada berbagai gerakan manusia, penyempurnaan pada urutan berkualitas tinggi yang dikurasi, dan pembelajaran penguatan dengan umpan balik manusia—untuk menghasilkan gerakan yang halus, masuk akal secara fisik yang selaras dengan arahan tekstual yang terperinci. Hasilnya adalah alur kerja perintah-ke-animasi yang terintegrasi dengan mulus ke dalam alur 3D modern. Proyek ini hadir dengan model standar (≈1,0 miliar parameter) dan varian Lite (≈0,46 miliar parameter) untuk berbagai kebutuhan performa, bersama dengan dukungan lintas platform, CLI yang ramah batch, dan UI Gradio yang mudah untuk eksplorasi interaktif. Detail lengkap, pembaruan, dan instruksi penggunaan tersedia di repositori resmi di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Diffusion Transformer dengan Flow Matching yang diskalakan hingga ~1 miliar parameter untuk kemampuan mengikuti instruksi dan kualitas gerakan yang superior [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Pelatihan tiga tahap: pra-pelatihan skala besar, penyempurnaan berkualitas tinggi, dan RLHF untuk gerakan yang alami dan koheren [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    CLI dan aplikasi Gradio siap pakai untuk inferensi lokal cepat dan visualisasi interaktif [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Fitur utama

    Apa yang membuat Hunyuan Motion berbeda

    Diffusion Transformer + Flow Matching pada skala miliaran

    Hunyuan Motion menskalakan backbone DiT dengan Flow Matching hingga ~1,0 miliar parameter, meningkatkan kemampuan mengikuti instruksi dan kualitas gerakan sambil mempertahankan stabilitas di seluruh frame. Lihat deskripsi model resmi dan ikhtisar pelatihan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Alur pelatihan tiga tahap

    Pra-pelatihan skala besar pada 3.000+ jam data gerakan membangun prior yang luas; 400 jam penyempurnaan yang dikurasi meningkatkan detail dan kelancaran; RL dari umpan balik manusia menyempurnakan kenaturalan dan kepatuhan perintah. Detailnya didokumentasikan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Model zoo: Standar dan Lite

    Pilih HY-Motion-1.0 (~1,0 miliar parameter) untuk fidelitas gerakan terbaik atau HY-Motion-1.0-Lite (~0,46B) untuk penerapan yang lebih ringan. Repositori menyediakan bobot dan instruksi untuk pengaturan cepat [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Pembuatan gerakan yang mengutamakan teks

    Hunyuan Motion mengambil perintah bahasa sederhana dan menghasilkan gerakan yang selaras dengan tindakan, gaya, dan kecepatan yang dimaksudkan, memungkinkan kontrol kreatif tanpa menganimasikan setiap pose secara manual.

    Rekayasa perintah dan estimasi durasi

    Secara opsional, hubungkan estimator durasi berbasis LLM dan modul penulis ulang perintah untuk meningkatkan kecepatan dan kejelasan. Hunyuan Motion mengekspos flag sederhana untuk mengaktifkan atau menonaktifkan pembantu ini sesuai kebutuhan [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI dan Gradio disertakan

    Jalankan pekerjaan batch melalui CLI untuk set perintah besar atau putar server Gradio lokal untuk visualisasi interaktif. Alat ini dipelihara di repo resmi dengan instruksi dan contoh yang jelas di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Dukungan lintas platform

    Hunyuan Motion berjalan di macOS, Windows, dan Linux, membantu tim campuran berbagi alur kerja. Repo menyertakan persyaratan dan skrip untuk pengaturan dan inferensi yang konsisten [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Output yang ramah produksi

    Dengan menghasilkan gerakan berbasis kerangka, Hunyuan Motion cocok dengan alur karakter yang di-rig dan mendukung penargetan ulang hilir, pencampuran, dan pembersihan menggunakan rantai alat DCC yang familiar.

    Cara kerja Hunyuan Motion

    Dari perintah hingga animasi kerangka

    1

    Penguraian instruksi dan perencanaan durasi

    Pengguna menulis perintah bahasa alami yang menjelaskan tindakan, gaya, dan kecepatan yang diinginkan. Hunyuan Motion secara opsional dapat menggunakan penulisan ulang perintah dan modul estimasi durasi untuk memperjelas maksud, menyimpulkan waktu, dan menstandarkan frasa sebelum pembuatan. Langkah ini meningkatkan keselarasan antara deskripsi teks dan hasil gerakan, terutama pada tindakan kompleks atau multi-langkah seperti yang didokumentasikan dalam repositori resmi di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    Pengambilan sampel DiT yang Cocok dengan Aliran dan sintesis kerangka

    Hunyuan Motion mengambil sampel lintasan gerakan dengan Diffusion Transformer yang dilatih melalui Flow Matching. Model menghasilkan gerakan 3D berbasis kerangka yang halus, koheren secara temporal yang sesuai dengan perintah. Hasilnya dapat dilihat secara interaktif di aplikasi Gradio atau disimpan melalui CLI untuk integrasi ke dalam alur 3D Anda. Instruksi penggunaan lengkap disediakan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Tempat menggunakan Hunyuan Motion

    Dari pravisualisasi hingga animasi akhir

    Pengembangan dan pembuatan prototipe game

    Gunakan Hunyuan Motion untuk dengan cepat menghasilkan gerakan lari, lompat, serang, emote, dan traversal untuk membuat prototipe gameplay dan melakukan iterasi pada nuansa karakter. Desainer dapat menguji variasi perintah dan dengan cepat mengekspor gerakan berbasis kerangka untuk penargetan ulang ke rig dalam game. Untuk pustaka yang lebih besar, CLI mendukung inferensi batch dan penamaan output yang konsisten. Repo resmi menunjukkan alur kerja dan flag yang direkomendasikan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Film, VFX, dan produksi virtual

    Dalam alur sinematik, Hunyuan Motion mempercepat previz dan blocking. Sutradara dapat membuat sketsa maksud sebagai teks, membiarkan Hunyuan Motion menghasilkan gerakan dasar, dan menyerahkannya kepada animator untuk penyempurnaan. Perilaku yang halus dan mengikuti instruksi membantu menjaga revisi tetap ketat dan dapat diprediksi di seluruh bidikan.

    Digital human dan influencer virtual

    Pasangkan Hunyuan Motion dengan digital human untuk mensintesis gerakan ekspresif, loop idle, dan tindakan bergaya. Karena Hunyuan Motion berbasis perintah, pembuat non-teknis dapat menjelajahi ide gerakan lebih cepat dan berkolaborasi dengan direktur teknis untuk polesan dan pengiriman.

    VR/AR dan pengalaman imersif

    Hunyuan Motion mendukung pembuatan cepat gerakan kerumunan ambien, interaksi terpandu, dan ketukan naratif yang meningkatkan imersi. Output berbasis kerangka membuatnya mudah untuk menargetkan ulang animasi ke rig yang dioptimalkan untuk headset dan batasan runtime.

    Pendidikan, penelitian, dan laboratorium

    Pendidik dan peneliti dapat menggunakan Hunyuan Motion sebagai referensi untuk pendekatan Diffusion Transformer dan Flow Matching untuk gerakan. Kode sumber terbuka dan model zoo proyek memungkinkan eksperimen yang dapat direproduksi dan tolok ukur kemampuan mengikuti instruksi [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Studio yang membangun pustaka gerakan internal

    Saat membangun pustaka gerakan gaya rumah yang konsisten, Hunyuan Motion menyediakan basis yang koheren. Tim dapat menentukan nada, kecepatan, dan gaya dalam teks, menghasilkan pengambilan yang konsisten, dan menstandarkan ulasan melalui aplikasi Gradio sebelum dimasukkan ke dalam manajemen aset.

    Pertanyaan yang sering diajukan

    Semua yang perlu Anda ketahui untuk mulai membuat dengan Hunyuan Motion

    Apa sebenarnya yang dihasilkan Hunyuan Motion?

    Hunyuan Motion menghasilkan gerakan manusia 3D berbasis kerangka dari perintah teks, yang dirancang untuk diintegrasikan ke dalam alur animasi 3D umum. Model ini berfokus pada realisme, kelancaran temporal, dan kemampuan mengikuti instruksi sehingga tindakan, gaya, dan kecepatan mencerminkan apa yang Anda jelaskan. Lihat ikhtisar proyek dan contoh di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Bagaimana Hunyuan Motion dilatih?

    Hunyuan Motion menggunakan proses tiga tahap: pra-pelatihan skala besar pada lebih dari 3.000 jam gerakan untuk mempelajari prior yang luas, penyempurnaan pada 400 jam data berkualitas tinggi yang dikurasi untuk detail dan kelancaran, dan pembelajaran penguatan dengan umpan balik manusia untuk lebih menyempurnakan keselarasan instruksi dan kenaturalan. Ringkasan teknis dan catatan pelatihan ada di repo resmi di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Apa perbedaan antara HY-Motion-1.0 dan HY-Motion-1.0-Lite?

    Keduanya adalah bagian dari Hunyuan Motion. HY-Motion-1.0 adalah model standar, ~1,0 miliar parameter yang memaksimalkan kemampuan mengikuti instruksi dan fidelitas gerakan, sedangkan HY-Motion-1.0-Lite (~0,46B) dioptimalkan untuk penerapan yang lebih ringan dan turnaround yang lebih cepat. Pilih berdasarkan anggaran GPU dan kebutuhan kualitas gerakan Anda. Panduan unduhan model disediakan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Bagaimana cara menjalankan Hunyuan Motion secara lokal?

    Instal PyTorch dan persyaratan proyek, unduh bobot yang telah dilatih sebelumnya mengikuti instruksi repo, lalu pilih antarmuka pilihan Anda: gunakan CLI untuk perintah batch atau luncurkan aplikasi Gradio untuk UI interaktif. Mulai cepat langkah demi langkah dijelaskan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Bisakah Hunyuan Motion memperkirakan durasi dan menulis ulang perintah secara otomatis?

    Ya. Hunyuan Motion secara opsional dapat menggunakan estimator durasi dan modul penulisan ulang perintah untuk meningkatkan kecepatan dan kejelasan. Anda dapat mengaktifkan atau menonaktifkan modul ini melalui flag sederhana. Jika tidak tersedia, Anda dapat secara eksplisit mematikannya untuk menghindari kesalahan koneksi, seperti yang dijelaskan dalam catatan penggunaan repositori di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Sistem operasi mana yang didukung Hunyuan Motion?

    Hunyuan Motion mendukung macOS, Windows, dan Linux untuk inferensi. Instruksi instalasi, daftar dependensi, dan perkakas untuk CLI dan Gradio tersedia di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Apakah ada demo interaktif?

    Ya. Proyek ini menyertakan aplikasi Gradio yang dapat Anda jalankan secara lokal untuk visualisasi interaktif. Repo resmi juga menunjuk ke Hugging Face Space dan situs resmi untuk mencoba model. Temukan tautan dan pengaturan di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Bagaimana cara mengintegrasikan output Hunyuan Motion ke dalam alur saya?

    Karena Hunyuan Motion menghasilkan gerakan berbasis kerangka, ia dapat ditargetkan ulang ke rig Anda, dicampur dengan klip yang ada, dan dilewatkan melalui alat DCC Anda untuk pemolesan. CLI cocok untuk pekerjaan batch, sedangkan aplikasi Gradio mendukung eksplorasi dan ulasan kreatif sebelum impor. Pelajari lebih lanjut di [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Mulai membuat dengan Hunyuan Motion

    Ubah perintah menjadi animasi kerangka siap produksi hari ini. Ikuti mulai cepat di repositori resmi, luncurkan aplikasi Gradio untuk visualisasi instan, dan lakukan iterasi cepat dengan CLI untuk pembuatan gerakan batch. Semua yang Anda butuhkan untuk menerapkan Hunyuan Motion secara lokal—termasuk dependensi, checkpoint, dan catatan penggunaan—tersedia di github.com.

    Model Terkait

    Jelajahi lebih banyak model AI dari penyedia yang sama

    Hunyuan 3D

    Ubah ide dan gambar Anda menjadi aset 3D siap produksi yang menakjubkan dengan Hunyuan 3D revolusioner dari Tencent. Menampilkan model difusi canggih, sintesis tekstur profesional, dan integrasi alur kerja yang mulus untuk pengembangan game, desain produk, dan seni digital.

    Pelajari Lebih Lanjut

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    Pelajari Lebih Lanjut

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    Pelajari Lebih Lanjut

    Hasilkan Aset 3D Menakjubkan dengan Mudah dengan Hunyuan World

    Ubah teks & gambar menjadi model 3D berkualitas tinggi. Bebaskan potensi kreatif Anda.

    Pelajari Lebih Lanjut

    Hasilkan Avatar Video Mirip Asli dengan Hunyuan Video Avatar

    Hidupkan potret. Buat video kepala berbicara yang ekspresif dari satu gambar dan audio.

    Pelajari Lebih Lanjut

    Hunyuan Custom – Alat Pembuatan Video Multimodal AI Generasi Berikutnya

    Hunyuan Custom adalah solusi pembuatan video multimodal tercanggih dari Tencent yang memungkinkan pengguna membuat video yang dipersonalisasi dan konsisten subjeknya menggunakan AI. Unggah gambar, ketik perintah, atau tambahkan input audio/video untuk menghasilkan konten berkualitas sinematik dalam hitungan detik.

    Pelajari Lebih Lanjut
    Lihat Semua Model