Hunyuan Motionは、自然言語から高忠実度なスケルトンベースの3Dアニメーションを生成します
Hunyuan Motionは、次世代のテキストから3Dヒューマンモーションを生成するモデルスイートであり、プレーンな英語のプロンプトを、滑らかでリアルなスケルトンベースのアニメーションに変換します。10億のパラメータを持つDiffusion TransformerをFlow Matchingでトレーニングすることにより、Hunyuan Motionは、指示の理解、モーションのディテール、および時間的な滑らかさを新たなレベルに引き上げます。このプロジェクトでは、高速なイテレーション、再現可能なワークフロー、およびクロスプラットフォームの互換性のために、すぐに使用できるCLIとインタラクティブなGradioアプリを提供します。大規模な事前トレーニング、高品質なファインチューニング、および人間からのフィードバックによる強化学習により、Hunyuan Motionは、ゲーム、映画、VR/AR、バーチャルプロダクション、およびデジタルヒューマンパイプラインにおいて、最先端の品質と信頼性を実現します。github.comで、公式のオープンソース実装、事前トレーニング済みの重み、およびクイックスタートツールをご覧ください。

Hunyuan Motionは、テキストから3Dヒューマンモーションを生成する一連のモデルであり、自然言語プロンプトから直接スケルトンベースのキャラクターアニメーションを生成します。Diffusion Transformer上に構築され、Flow MatchingでトレーニングされたHunyuan Motionは、10億パラメータレベルまでスケールし、以前のオープンソースシステムと比較して、指示の理解とモーションの品質を大幅に向上させます。トレーニングパイプラインは、多様なヒューマンモーションに関する大規模な事前トレーニング、厳選された高品質なシーケンスに関するファインチューニング、および詳細なテキスト指示に沿った滑らかで物理的に妥当なモーションを実現するための人間からのフィードバックによる強化学習という3つのフェーズを組み合わせています。その結果、最新の3Dパイプラインにシームレスに統合されるプロンプトからアニメーションへのワークフローが実現します。このプロジェクトには、標準モデル(≈10億パラメータ)と、パフォーマンスの異なるLiteバリアント(≈0.46Bパラメータ)が付属しており、クロスプラットフォームのサポート、バッチ処理に適したCLI、およびインタラクティブな探索のための簡単なGradio UIが付属しています。詳細、アップデート、および使用方法については、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)の公式リポジトリをご覧ください。
優れた指示の理解とモーション品質を実現するために、Flow Matchingを備えたDiffusion Transformerを〜10億パラメータにスケール [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
3段階のトレーニング:大規模な事前トレーニング、高品質なファインチューニング、および自然で一貫性のあるモーションのためのRLHF [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
高速なローカル推論とインタラクティブな視覚化のための、すぐに使用できるCLIおよびGradioアプリ [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Hunyuan Motionの違い
Hunyuan Motionは、Flow Matchingを備えたDiTバックボーンを〜10億パラメータにスケールし、フレーム全体の安定性を維持しながら、指示の理解とモーション品質を向上させます。[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)で、公式モデルの説明とトレーニングの概要をご覧ください。
3,000時間以上のモーションデータに関する大規模な事前トレーニングにより、幅広い事前知識が構築されます。400時間の厳選されたファインチューニングにより、ディテールと滑らかさが向上します。人間からのフィードバックによるRLにより、自然さとプロンプトの遵守が洗練されます。詳細は[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)に記載されています。
最先端のモーション忠実度にはHY-Motion-1.0(〜10億パラメータ)を選択し、より軽量なデプロイメントにはHY-Motion-1.0-Lite(〜0.46B)を選択します。リポジトリには、迅速なセットアップのための重みと手順が用意されています[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。
Hunyuan Motionは、平易な言語のプロンプトを受け取り、意図されたアクション、スタイル、およびペースに沿ったモーションを出力し、すべてのポーズを手動でアニメーション化することなく、クリエイティブな制御を可能にします。
オプションで、LLMベースの期間推定器とプロンプトリライターモジュールを接続して、ペースと明瞭さを向上させます。Hunyuan Motionは、必要に応じてこれらのヘルパーを有効または無効にするための簡単なフラグを公開しています[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。
大規模なプロンプトセットの場合はCLIを介してバッチジョブを実行するか、インタラクティブな視覚化のためにローカルのGradioサーバーを起動します。これらのツールは、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)の明確な手順と例とともに、公式リポジトリで維持されています。
Hunyuan Motionは、macOS、Windows、およびLinuxで実行され、混合チームがワークフローを共有するのに役立ちます。リポジトリには、一貫したセットアップと推論のための要件とスクリプトが含まれています[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。
Hunyuan Motionはスケルトンベースのモーションを生成することにより、リグされたキャラクターパイプラインに適合し、使い慣れたDCCツールチェーンを使用したダウンストリームのリターゲティング、ブレンディング、およびクリーンアップをサポートします。
プロンプトからスケルトンアニメーションまで
ユーザーは、目的のアクション、スタイル、およびペースを記述する自然言語プロンプトを作成します。Hunyuan Motionは、オプションで、プロンプトの書き換えと期間の推定モジュールを使用して、意図を明確にし、タイミングを推測し、生成前に言い回しを標準化できます。このステップにより、特に[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)の公式リポジトリに記載されているように、複雑なアクションまたは複数ステップのアクションの場合に、テキストの説明とモーションの結果の間の整合性が向上します。
Hunyuan Motionは、Flow Matchingを介してトレーニングされたDiffusion Transformerを使用して、モーショントラジェクトリをサンプリングします。モデルは、プロンプトに準拠した、滑らかで時間的に一貫性のあるスケルトンベースの3Dモーションを出力します。結果は、Gradioアプリでインタラクティブに表示したり、3Dパイプラインに統合するためにCLIを介して保存したりできます。完全な使用手順は、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)に記載されています。
プレビジュアライゼーションから最終アニメーションまで
Hunyuan Motionを使用して、実行、ジャンプ、攻撃、エモート、およびトラバーサルモーションを迅速に生成し、ゲームプレイをプロトタイプ化し、キャラクターの感触を反復処理します。デザイナーは、プロンプトのバリエーションをテストし、ゲーム内リグにリターゲティングするためのスケルトンベースのモーションをすばやくエクスポートできます。大規模なライブラリの場合、CLIはバッチ推論と一貫した出力命名をサポートします。公式リポジトリには、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)で推奨されるワークフローとフラグが示されています。
映画のパイプラインでは、Hunyuan Motionはプレビズとブロッキングを加速します。監督は、意図をテキストとしてスケッチし、Hunyuan Motionにベースラインモーションを生成させ、アニメーターに手渡して洗練させることができます。滑らかで指示に従う動作は、ショット全体で修正をタイトかつ予測可能に保つのに役立ちます。
Hunyuan Motionをデジタルヒューマンと組み合わせて、表現力豊かなジェスチャー、アイドルループ、および様式化された行為を合成します。Hunyuan Motionはプロンプトベースであるため、非技術的なクリエイターはモーションのアイデアをより迅速に探索し、テクニカルディレクターと協力して磨き上げることができます。
Hunyuan Motionは、没入感を高めるアンビエント群衆モーション、ガイド付きインタラクション、およびナラティブビートの迅速な作成をサポートします。スケルトンベースの出力により、ヘッドセットに最適化されたリグとランタイム制約にアニメーションをリターゲティングすることが簡単になります。
教育者と研究者は、Hunyuan Motionを、モーションへのDiffusion TransformerおよびFlow Matchingアプローチのリファレンスとして使用できます。このプロジェクトのオープンソースコードとモデル動物園により、再現可能な実験と指示に従うベンチマークが可能になります[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)。
ハウススタイルのモーションの一貫したライブラリを構築する場合、Hunyuan Motionは一貫性のあるベースを提供します。チームは、トーン、ペース、およびスタイルをテキストで指定し、一貫したテイクを生成し、アセット管理に取り込む前にGradioアプリを介してレビューを標準化できます。
Hunyuan Motionでの生成を開始するために知っておくべきことすべて
Hunyuan Motionは、一般的な3Dアニメーションパイプラインに統合するように設計された、テキストプロンプトからのスケルトンベースの3Dヒューマンモーションを生成します。このモデルは、リアリズム、時間的な滑らかさ、および指示に従うことに重点を置いており、アクション、スタイル、およびペースが記述した内容を反映するようにします。[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)で、プロジェクトの概要と例をご覧ください。
Hunyuan Motionは、3段階のプロセスを使用します。3,000時間以上のモーションに関する大規模な事前トレーニングにより、幅広い事前知識を学習し、400時間の厳選された高品質データに関するファインチューニングにより、ディテールと滑らかさを実現し、人間からのフィードバックによる強化学習により、指示の整合性と自然さをさらに洗練します。技術的な概要とトレーニングノートは、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)の公式リポジトリにあります。
どちらもHunyuan Motionの一部です。HY-Motion-1.0は、指示に従うこととモーションの忠実度を最大化する標準の〜10億パラメータモデルですが、HY-Motion-1.0-Lite(〜0.46B)は、より軽量なデプロイメントとより高速なターンアラウンドのために最適化されています。GPUの予算とモーション品質のニーズに基づいて選択してください。モデルのダウンロードガイダンスは、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)に記載されています。
PyTorchとプロジェクトの要件をインストールし、リポジトリの手順に従って事前トレーニング済みの重みをダウンロードしてから、好みのインターフェイスを選択します。バッチプロンプトにはCLIを使用するか、インタラクティブなUIにはGradioアプリを起動します。ステップバイステップのクイックスタートは、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)に詳しく記載されています。
はい。Hunyuan Motionは、オプションで、期間推定器とプロンプトリライトモジュールを使用して、ペースと明瞭さを向上させることができます。これらのモジュールは、簡単なフラグを介して有効または無効にできます。利用できない場合は、接続エラーを回避するために明示的にオフにすることができます。[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)のリポジトリの使用上の注意に記載されています。
Hunyuan Motionは、推論のためにmacOS、Windows、およびLinuxをサポートしています。CLIとGradioの両方のインストール手順、依存関係リスト、およびツールは、[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)で入手できます。
はい。このプロジェクトには、インタラクティブな視覚化のためにローカルで実行できるGradioアプリが含まれています。公式リポジトリは、モデルを試すためのHugging Face Spaceと公式サイトも示しています。[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)でリンクとセットアップを見つけてください。
Hunyuan Motionはスケルトンベースのモーションを生成するため、リグにリターゲティングしたり、既存のクリップとブレンドしたり、DCCツールを介して渡して磨き上げることができます。CLIはバッチジョブに適しており、Gradioアプリはインポート前のクリエイティブな探索とレビューをサポートします。[github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)で詳細をご覧ください。
今日からプロンプトをプロダクション対応のスケルトンアニメーションに変えましょう。公式リポジトリのクイックスタートに従い、Gradioアプリを起動して瞬時に視覚化し、CLIを使用してバッチモーション生成を高速に反復処理します。依存関係、チェックポイント、および使用上の注意など、Hunyuan Motionをローカルにデプロイするために必要なものはすべて、github.comで入手できます。
同じプロバイダーの他のAIモデルを探索
Tencentの革新的なHunyuan 3Dで、あなたのアイデアや画像を素晴らしい、すぐに制作に使える3Dアセットに変えましょう。高度な拡散モデル、プロフェッショナルなテクスチャ合成、およびゲーム開発、製品設計、およびデジタルアートのためのシームレスなワークフロー統合を備えています。
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
テキストと画像を高品質の3Dモデルに変換します。創造的な可能性を解き放ちます。
ポートレートに命を吹き込みます。単一の画像とオーディオから表現力豊かなトーキングヘッドビデオを作成します。
Hunyuan Customは、Tencentの最先端のマルチモーダルビデオ生成ソリューションで、AIを使用して、ユーザーがカスタマイズされた、被写体の一貫性のあるビデオを作成できます。画像アップロード、プロンプト入力、またはオーディオ/ビデオ入力の追加により、映画のような品質のコンテンツを数秒で生成できます。