Story321.com
Story321.com
首頁Blog價格
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
首頁
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlog價格
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
首頁影片圖片3D寫作
Story321.com

Story321.com 是一個故事 AI,專為作家和說書人設計,透過 AI 協助創作和分享他們的故事、書籍、劇本、Podcast、影片等等。

關注我們
X
Products
✍️Writing

文字創作

🖼️Image

圖像創作

🎬Video

影片創作

Resources
  • AI Tools
  • Features
  • Models
  • Blog
公司
  • 關於我們
  • 價格
  • 服務條款
  • 隱私權政策
  • 退款政策
  • 免責聲明
Story321.com

Story321.com 是一個故事 AI,專為作家和說書人設計,透過 AI 協助創作和分享他們的故事、書籍、劇本、Podcast、影片等等。

Products
✍️Writing

文字創作

🖼️Image

圖像創作

🎬Video

影片創作

Resources
  • AI Tools
  • Features
  • Models
  • Blog
公司
  • 關於我們
  • 價格
  • 服務條款
  • 隱私權政策
  • 退款政策
  • 免責聲明
關注我們
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. 保留所有權利

Made with ❤️ for writers and storytellers
    1. 首页
    2. AI 模型
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — 大規模文本到 3D 人體動作生成

    Hunyuan Motion 以高保真、基於骨架的 3D 動畫將自然語言轉化為現實

    Hunyuan Motion 是一個新一代的文本到 3D 人體動作生成模型套件,可將簡單的英語提示轉換為流暢、逼真、基於骨架的動畫。Hunyuan Motion 由一個擁有十億參數、使用 Flow Matching 訓練的 Diffusion Transformer 提供支持,將指令遵循、動作細節和時間平滑度提升到一個新的水平。該項目提供了隨時可用的 CLI 和一個交互式的 Gradio 應用程序,用於快速迭代、可重現的工作流程和跨平台兼容性。通過大規模的預訓練、高質量微調和來自人類反饋的強化學習,Hunyuan Motion 在遊戲、電影、VR/AR、虛擬製作和數字人流程中實現了最先進的質量和可靠性。在 github.com 上探索官方開源實現、預訓練權重和快速入門工具。

    文本到動作
    3D 動畫
    Hunyuan Motion

    什麼是 Hunyuan Motion?

    Hunyuan Motion 是一系列文本到 3D 人體動作生成模型,可直接從自然語言提示生成基於骨架的角色動畫。Hunyuan Motion 建立在 Diffusion Transformer 之上,並使用 Flow Matching 進行訓練,可擴展到十億參數級別,從而顯著提高指令遵循和動作質量,與之前的開源系統相比。訓練流程結合了三個階段——對各種人體動作進行大規模預訓練、對精選的高質量序列進行微調,以及通過人類反饋進行強化學習——以提供平滑、物理上合理的動作,與詳細的文本指示保持一致。結果是一個提示到動畫的工作流程,可以無縫集成到現代 3D 流程中。該項目提供了一個標準模型(≈10 億參數)和一個 Lite 變體(≈4.6 億參數),用於不同的性能範圍,以及跨平台支持、批處理友好的 CLI 和一個簡單的 Gradio UI,用於交互式探索。完整詳細信息、更新和使用說明可在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上的官方存儲庫中找到。

    使用 Flow Matching 的 Diffusion Transformer 擴展到約 10 億個參數,以實現卓越的指令遵循和動作質量 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    三階段訓練:大規模預訓練、高質量微調和 RLHF,以實現自然、連貫的動作 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    隨時可用的 CLI 和 Gradio 應用程序,用於快速本地推理和交互式可視化 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    主要功能

    是什麼讓 Hunyuan Motion 與眾不同

    Diffusion Transformer + Flow Matching 達到十億規模

    Hunyuan Motion 使用 Flow Matching 擴展了 DiT 主幹到約 10 億個參數,提高了指令遵循和動作質量,同時保持了跨幀的穩定性。請參閱 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上的官方模型描述和訓練概述。

    三階段訓練流程

    對 3,000 多小時的動作數據進行大規模預訓練,建立廣泛的先驗知識;對 400 小時的精選高質量數據進行微調,以增強細節和平滑度;來自人類反饋的 RL 完善了自然性和提示依從性。詳細信息記錄在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上。

    模型動物園:標準版和精簡版

    選擇 HY-Motion-1.0(約 10 億個參數)以獲得最先進的動作保真度,或選擇 HY-Motion-1.0-Lite(約 4.6 億個參數)以進行更輕量級的部署。該存儲庫提供了權重和說明,用於快速設置 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。

    文本優先的動作生成

    Hunyuan Motion 採用簡單的語言提示並輸出與預期動作、風格和節奏一致的動作,從而實現創意控制,而無需手動製作每個姿勢的動畫。

    提示工程和持續時間估計

    可選地連接基於 LLM 的持續時間估計器和提示重寫器模塊,以提高節奏和清晰度。Hunyuan Motion 公開了簡單的標誌,可以根據需要啟用或禁用這些助手 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。

    包含 CLI 和 Gradio

    通過 CLI 運行批處理作業以處理大型提示集,或啟動本地 Gradio 服務器以進行交互式可視化。這些工具在官方存儲庫中維護,並在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上提供清晰的說明和示例。

    跨平台支持

    Hunyuan Motion 在 macOS、Windows 和 Linux 上運行,幫助混合團隊共享工作流程。該存儲庫包括需求和腳本,用於一致的設置和推理 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。

    生產友好的輸出

    通過生成基於骨架的動作,Hunyuan Motion 適合裝備好的角色流程,並支持使用熟悉的 DCC 工具鏈進行下游重定向、混合和清理。

    Hunyuan Motion 的工作原理

    從提示到骨架動畫

    1

    指令解析和持續時間規劃

    用戶編寫一個自然語言提示,描述所需的動作、風格和節奏。Hunyuan Motion 可以選擇使用提示重寫和持續時間估計模塊來闡明意圖、推斷時間並在生成之前標準化措辭。此步驟增加了文本描述和動作結果之間的一致性,尤其是在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上的官方存儲庫中記錄的複雜或多步驟動作上。

    2

    Flow-Matched DiT 採樣和骨架合成

    Hunyuan Motion 使用通過 Flow Matching 訓練的 Diffusion Transformer 對運動軌跡進行採樣。該模型輸出平滑、時間上連貫、基於骨架的 3D 動作,並符合提示。結果可以在 Gradio 應用程序中交互式查看,或通過 CLI 保存,以便集成到您的 3D 流程中。完整的使用說明在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上提供。

    Hunyuan Motion 的使用場景

    從預可視化到最終動畫

    遊戲開發和原型設計

    使用 Hunyuan Motion 快速生成跑步、跳躍、攻擊、表情和穿越動作,以原型設計遊戲玩法並迭代角色感覺。設計師可以測試提示變體,並快速導出基於骨架的動作,以便重定向到遊戲內裝備。對於較大的庫,CLI 支持批處理推理和一致的輸出命名。官方存儲庫在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上顯示了推薦的工作流程和標誌。

    電影、VFX 和虛擬製作

    在電影流程中,Hunyuan Motion 加速了預覽和阻擋。導演可以將意圖草繪為文本,讓 Hunyuan Motion 生成基準動作,然後將其交給動畫師進行完善。平滑、遵循指令的行為有助於保持跨鏡頭的修訂緊湊且可預測。

    數字人和虛擬影響者

    將 Hunyuan Motion 與數字人配對,以合成富有表現力的手勢、空閒循環和風格化的行為。由於 Hunyuan Motion 是基於提示的,因此非技術創作者可以更快地探索動作想法,並與技術總監合作進行潤色和交付。

    VR/AR 和沉浸式體驗

    Hunyuan Motion 支持快速創建環境人群動作、引導式交互和敘事節拍,以增強沉浸感。基於骨架的輸出使其可以直接將動畫重定向到針對頭戴式耳機優化的裝備和運行時約束。

    教育、研究和實驗室

    教育工作者和研究人員可以使用 Hunyuan Motion 作為 Diffusion Transformer 和 Flow Matching 動作方法的參考。該項目的開源代碼和模型動物園支持可重現的實驗和指令遵循基準 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。

    構建內部動作庫的工作室

    在構建一致的內部風格動作庫時,Hunyuan Motion 提供了一個連貫的基礎。團隊可以在文本中指定語氣、節奏和風格,生成一致的鏡頭,並在導入資產管理之前通過 Gradio 應用程序標準化審閱。

    常見問題解答

    開始使用 Hunyuan Motion 生成所需的一切

    Hunyuan Motion 究竟生成什麼?

    Hunyuan Motion 從文本提示生成基於骨架的 3D 人體動作,旨在集成到常見的 3D 動畫流程中。該模型側重於真實感、時間平滑度和指令遵循,以便動作、風格和節奏反映您所描述的內容。請參閱 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上的項目概述和示例。

    Hunyuan Motion 是如何訓練的?

    Hunyuan Motion 使用三階段流程:對超過 3,000 小時的動作進行大規模預訓練以學習廣泛的先驗知識,對 400 小時的精選高質量數據進行微調以獲得細節和平滑度,以及通過人類反饋進行強化學習以進一步完善指令對齊和自然性。技術摘要和訓練筆記位於 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上的官方存儲庫中。

    HY-Motion-1.0 和 HY-Motion-1.0-Lite 之間有什麼區別?

    兩者都是 Hunyuan Motion 的一部分。HY-Motion-1.0 是標準的、約 10 億參數的模型,可最大限度地提高指令遵循和動作保真度,而 HY-Motion-1.0-Lite(約 4.6 億參數)則針對更輕量級的部署和更快的周轉進行了優化。根據您的 GPU 預算和動作質量需求進行選擇。模型下載指南在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上提供。

    如何在本地運行 Hunyuan Motion?

    安裝 PyTorch 和項目需求,按照存儲庫的說明下載預訓練權重,然後選擇您喜歡的界面:使用 CLI 進行批處理提示或啟動 Gradio 應用程序以獲得交互式 UI。逐步快速入門在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上詳細說明。

    Hunyuan Motion 可以自動估計持續時間和重寫提示嗎?

    是的。Hunyuan Motion 可以選擇使用持續時間估計器和提示重寫模塊來提高節奏和清晰度。您可以通過簡單的標誌啟用或禁用這些模塊。如果它們不可用,您可以顯式關閉它們以避免連接錯誤,如存儲庫中 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上的使用說明中所述。

    Hunyuan Motion 支持哪些操作系統?

    Hunyuan Motion 支持 macOS、Windows 和 Linux 進行推理。CLI 和 Gradio 的安裝說明、依賴項列表和工具可在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上找到。

    是否有交互式演示?

    是的。該項目包括一個您可以在本地運行的 Gradio 應用程序,用於交互式可視化。官方存儲庫還指向一個 Hugging Face Space 和一個官方網站,用於嘗試該模型。在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上查找鏈接和設置。

    如何將 Hunyuan Motion 輸出集成到我的流程中?

    由於 Hunyuan Motion 生成基於骨架的動作,因此可以將其重定向到您的裝備、與現有剪輯混合,並通過您的 DCC 工具進行潤色。CLI 適用於批處理作業,而 Gradio 應用程序支持導入前的創意探索和審閱。在 [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) 上了解更多信息。

    開始使用 Hunyuan Motion 創作

    立即將提示轉化為可投入生產的骨架動畫。按照官方存儲庫中的快速入門,啟動 Gradio 應用程序以進行即時可視化,並使用 CLI 快速迭代以進行批處理動作生成。您在本地部署 Hunyuan Motion 所需的一切——包括依賴項、檢查點和使用說明——都可以在 github.com 上找到。

    相关模型

    探索更多来自同一供应商的 AI 模型

    Hunyuan 3D

    透過騰訊革命性的Hunyuan 3D,將您的想法和圖像轉變為令人驚豔的、生產就緒的3D資產。具有先進的擴散模型、專業的紋理合成以及用於遊戲開發、產品設計和數位藝術的無縫工作流程整合。

    了解更多

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    了解更多

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    了解更多

    使用混元世界輕鬆生成令人驚豔的 3D 資產

    將文字和圖像轉換為高品質的 3D 模型。釋放您的創造潛力。

    了解更多

    使用混元視頻頭像生成逼真影片頭像

    讓肖像栩栩如生。從單張影像和音訊創建富有表現力的說話頭部影片。

    了解更多

    混元大模型 - 新一代 AI 多模態影片生成工具

    混元生圖是騰訊最先進的多模態影片生成解決方案,讓使用者能夠透過 AI 創造出客製化、主體一致的影片。上傳圖片、輸入提示詞,或加入音訊/影片輸入,即可在幾秒內生成電影級品質的內容。

    了解更多
    查看所有模型