Hunyuan Motion erweckt natürliche Sprache zum Leben mit hochauflösender, skelettbasierter 3D-Animation
Hunyuan Motion ist eine Text-zu-3D-Modellreihe der nächsten Generation zur Generierung menschlicher Bewegungen, die einfache englische Anweisungen in flüssige, realistische, skelettbasierte Animationen umwandelt. Angetrieben von einem Diffusions-Transformer mit einer Milliarde Parametern, der mit Flow Matching trainiert wurde, skaliert Hunyuan Motion die Befolgung von Anweisungen, Bewegungsdetails und zeitliche Glätte auf ein neues Niveau. Das Projekt bietet eine sofort einsatzbereite CLI und eine interaktive Gradio-App für schnelle Iterationen, reproduzierbare Workflows und plattformübergreifende Kompatibilität. Durch umfangreiches Vortraining, hochwertiges Feintuning und bestärkendes Lernen durch menschliches Feedback erreicht Hunyuan Motion modernste Qualität und Zuverlässigkeit für Spiele, Filme, VR/AR, virtuelle Produktion und digitale Human-Pipelines. Entdecken Sie die offizielle Open-Source-Implementierung, vortrainierte Gewichte und Schnellstart-Tools auf github.com.

Hunyuan Motion ist eine Reihe von Text-zu-3D-Modellen zur Generierung menschlicher Bewegungen, die skelettbasierte Charakteranimationen direkt aus natürlichsprachlichen Anweisungen erzeugen. Aufgebaut auf einem Diffusions-Transformer und trainiert mit Flow Matching, skaliert Hunyuan Motion auf die Milliarde-Parameter-Ebene, um die Befolgung von Anweisungen und die Bewegungsqualität im Vergleich zu früheren Open-Source-Systemen deutlich zu verbessern. Die Trainingspipeline kombiniert drei Phasen – massives Vortraining auf verschiedenen menschlichen Bewegungen, Feintuning auf kuratierten, hochwertigen Sequenzen und bestärkendes Lernen mit menschlichem Feedback –, um flüssige, physikalisch plausible Bewegungen zu liefern, die mit detaillierten textuellen Anweisungen übereinstimmen. Das Ergebnis ist ein Prompt-to-Animation-Workflow, der sich nahtlos in moderne 3D-Pipelines integriert. Das Projekt wird mit einem Standardmodell (≈1,0 Mrd. Parameter) und einer Lite-Variante (≈0,46 Mrd. Parameter) für unterschiedliche Leistungsprofile ausgeliefert, zusammen mit plattformübergreifender Unterstützung, Batch-freundlicher CLI und einer einfachen Gradio-UI zur interaktiven Erkundung. Vollständige Details, Updates und Nutzungsanweisungen sind im offiziellen Repository auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) verfügbar.
Diffusions-Transformer mit Flow Matching, skaliert auf ~1 Mrd. Parameter für überlegene Befolgung von Anweisungen und Bewegungsqualität [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Dreistufiges Training: umfangreiches Vortraining, hochwertiges Feintuning und RLHF für natürliche, kohärente Bewegungen [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Sofort einsatzbereite CLI und Gradio-App für schnelle lokale Inferenz und interaktive Visualisierung [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Was Hunyuan Motion auszeichnet
Hunyuan Motion skaliert ein DiT-Backbone mit Flow Matching auf ~1,0 Mrd. Parameter, wodurch die Befolgung von Anweisungen und die Bewegungsqualität verbessert werden, während die Stabilität über alle Frames hinweg erhalten bleibt. Siehe die offizielle Modellbeschreibung und den Trainingsüberblick auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Umfangreiches Vortraining auf über 3.000 Stunden Bewegungsdaten baut breite Vorkenntnisse auf; 400 Stunden kuratiertes Feintuning verbessern Details und Glätte; RL durch menschliches Feedback verfeinert Natürlichkeit und Prompt-Einhaltung. Details sind auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) dokumentiert.
Wählen Sie HY-Motion-1.0 (~1,0 Mrd. Parameter) für modernste Bewegungstreue oder HY-Motion-1.0-Lite (~0,46 Mrd.) für leichtere Bereitstellungen. Das Repository bietet Gewichte und Anweisungen für eine schnelle Einrichtung [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion nimmt Prompts in einfacher Sprache entgegen und gibt Bewegungen aus, die mit der beabsichtigten Aktion, dem Stil und dem Tempo übereinstimmen, wodurch kreative Kontrolle ohne Handanimation jeder Pose ermöglicht wird.
Verbinden Sie optional ein LLM-basiertes Dauerschätzungs- und Prompt-Rewriter-Modul, um Tempo und Klarheit zu verbessern. Hunyuan Motion stellt einfache Flags zur Verfügung, um diese Helfer nach Bedarf zu aktivieren oder zu deaktivieren [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Führen Sie Batch-Jobs über die CLI für große Prompt-Sets aus oder starten Sie einen lokalen Gradio-Server für interaktive Visualisierung. Diese Tools werden im offiziellen Repo mit klaren Anweisungen und Beispielen auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) verwaltet.
Hunyuan Motion läuft unter macOS, Windows und Linux und hilft gemischten Teams, Workflows zu teilen. Das Repo enthält Anforderungen und Skripte für eine konsistente Einrichtung und Inferenz [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Durch die Generierung skelettbasierter Bewegungen passt Hunyuan Motion in geriggte Charakterpipelines und unterstützt nachgelagertes Retargeting, Blending und Bereinigung mit vertrauten DCC-Toolchains.
Vom Prompt zur Skelettanimation
Ein Benutzer schreibt einen natürlichsprachlichen Prompt, der die gewünschte Aktion, den Stil und das Tempo beschreibt. Hunyuan Motion kann optional ein Prompt-Rewrite- und Dauerschätzungsmodul verwenden, um die Absicht zu verdeutlichen, das Timing abzuleiten und die Formulierung vor der Generierung zu standardisieren. Dieser Schritt erhöht die Übereinstimmung zwischen der Textbeschreibung und dem Bewegungsergebnis, insbesondere bei komplexen oder mehrstufigen Aktionen, wie im offiziellen Repository auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) dokumentiert.
Hunyuan Motion sampelt Bewegungstrajektorien mit einem Diffusions-Transformer, der über Flow Matching trainiert wurde. Das Modell gibt flüssige, zeitlich kohärente, skelettbasierte 3D-Bewegungen aus, die dem Prompt entsprechen. Das Ergebnis kann interaktiv in der Gradio-App angezeigt oder über die CLI zur Integration in Ihre 3D-Pipeline gespeichert werden. Vollständige Nutzungsanweisungen finden Sie auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Von der Vorvisualisierung bis zur endgültigen Animation
Verwenden Sie Hunyuan Motion, um schnell Lauf-, Sprung-, Angriffs-, Emote- und Bewegungsabläufe zu generieren, um Gameplay zu prototypisieren und das Charaktergefühl zu iterieren. Designer können Prompt-Variationen testen und schnell skelettbasierte Bewegungen für das Retargeting auf In-Game-Rigs exportieren. Für größere Bibliotheken unterstützt die CLI Batch-Inferenz und eine konsistente Ausgabenbenennung. Das offizielle Repo zeigt den empfohlenen Workflow und die Flags auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
In filmischen Pipelines beschleunigt Hunyuan Motion Previz und Blocking. Regisseure können die Absicht als Text skizzieren, Hunyuan Motion eine Baseline-Bewegung generieren lassen und sie zur Verfeinerung an Animatoren weitergeben. Das flüssige, anweisungsfolgende Verhalten trägt dazu bei, Revisionen über alle Aufnahmen hinweg straff und vorhersehbar zu halten.
Kombinieren Sie Hunyuan Motion mit digitalen Menschen, um ausdrucksstarke Gesten, Idle-Loops und stilisierte Handlungen zu synthetisieren. Da Hunyuan Motion Prompt-basiert ist, können nicht-technische Ersteller Bewegungs-Ideen schneller erkunden und mit technischen Direktoren für Politur und Auslieferung zusammenarbeiten.
Hunyuan Motion unterstützt die schnelle Erstellung von Ambient-Crowd-Bewegungen, geführten Interaktionen und narrativen Beats, die das Eintauchen verbessern. Skelettbasierte Ausgaben machen es einfach, Animationen auf Headset-optimierte Rigs und Laufzeitbeschränkungen umzuleiten.
Pädagogen und Forscher können Hunyuan Motion als Referenz für Diffusions-Transformer- und Flow-Matching-Ansätze für Bewegungen verwenden. Der Open-Source-Code und der Modellzoo des Projekts ermöglichen reproduzierbare Experimente und Benchmarks zur Befolgung von Anweisungen [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Beim Aufbau einer konsistenten Bibliothek von Bewegungen im Hausstil bietet Hunyuan Motion eine kohärente Basis. Teams können Ton, Tempo und Stil im Text festlegen, konsistente Takes generieren und die Überprüfung über die Gradio-App standardisieren, bevor sie in das Asset-Management übernommen werden.
Alles, was Sie wissen müssen, um mit Hunyuan Motion zu generieren
Hunyuan Motion generiert skelettbasierte 3D-Bewegungen von Menschen aus Text-Prompts, die für die Integration in gängige 3D-Animationspipelines entwickelt wurden. Das Modell konzentriert sich auf Realismus, zeitliche Glätte und Befolgung von Anweisungen, sodass Aktionen, Stile und Tempo das widerspiegeln, was Sie beschreiben. Siehe die Projektübersicht und Beispiele auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion verwendet einen dreistufigen Prozess: umfangreiches Vortraining auf über 3.000 Stunden Bewegung, um breite Vorkenntnisse zu erlernen, Feintuning auf 400 Stunden kuratierter, hochwertiger Daten für Details und Glätte sowie bestärkendes Lernen mit menschlichem Feedback, um die Ausrichtung der Anweisungen und die Natürlichkeit weiter zu verfeinern. Die technische Zusammenfassung und die Trainingshinweise finden Sie im offiziellen Repo auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Beide sind Teil von Hunyuan Motion. HY-Motion-1.0 ist das Standardmodell mit ~1,0 Mrd. Parametern, das die Befolgung von Anweisungen und die Bewegungstreue maximiert, während HY-Motion-1.0-Lite (~0,46 Mrd.) für leichtere Bereitstellungen und schnellere Durchlaufzeiten optimiert ist. Wählen Sie basierend auf Ihrem GPU-Budget und Ihren Anforderungen an die Bewegungsqualität. Eine Anleitung zum Herunterladen des Modells finden Sie auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Installieren Sie PyTorch und die Projektanforderungen, laden Sie die vortrainierten Gewichte gemäß den Anweisungen des Repo herunter und wählen Sie dann Ihre bevorzugte Schnittstelle: Verwenden Sie die CLI für Batch-Prompts oder starten Sie die Gradio-App für eine interaktive Benutzeroberfläche. Ein schrittweiser Schnellstart wird auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) beschrieben.
Ja. Hunyuan Motion kann optional ein Dauerschätzungs- und Prompt-Rewrite-Modul verwenden, um Tempo und Klarheit zu verbessern. Sie können diese Module über einfache Flags aktivieren oder deaktivieren. Wenn sie nicht verfügbar sind, können Sie sie explizit deaktivieren, um Verbindungsfehler zu vermeiden, wie in den Nutzungshinweisen des Repositorys auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) beschrieben.
Hunyuan Motion unterstützt macOS, Windows und Linux für die Inferenz. Installationsanweisungen, Abhängigkeitslisten und Tools für CLI und Gradio sind auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) verfügbar.
Ja. Das Projekt enthält eine Gradio-App, die Sie lokal für die interaktive Visualisierung ausführen können. Das offizielle Repo verweist auch auf einen Hugging Face Space und eine offizielle Website zum Ausprobieren des Modells. Links und Einrichtung finden Sie auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Da Hunyuan Motion skelettbasierte Bewegungen erzeugt, kann es auf Ihre Rigs umgeleitet, mit vorhandenen Clips gemischt und zur Politur durch Ihre DCC-Tools geleitet werden. Die CLI eignet sich für Batch-Jobs, während die Gradio-App die kreative Erkundung und Überprüfung vor dem Import unterstützt. Erfahren Sie mehr auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Verwandeln Sie Prompts noch heute in produktionsreife Skelettanimationen. Befolgen Sie den Schnellstart im offiziellen Repository, starten Sie die Gradio-App für die sofortige Visualisierung und iterieren Sie schnell mit der CLI für die Batch-Bewegungsgenerierung. Alles, was Sie zum lokalen Bereitstellen von Hunyuan Motion benötigen – einschließlich Abhängigkeiten, Checkpoints und Nutzungshinweise – ist auf github.com verfügbar.
Entdecken Sie weitere KI-Modelle vom selben Anbieter
Verwandeln Sie Ihre Ideen und Bilder mit dem revolutionären Hunyuan 3D von Tencent in beeindruckende, produktionsreife 3D-Assets. Mit fortschrittlichen Diffusionsmodellen, professioneller Textursynthese und nahtloser Workflow-Integration für Spieleentwicklung, Produktdesign und digitale Kunst.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Verwandeln Sie Text und Bilder in hochwertige 3D-Modelle. Entfesseln Sie Ihr kreatives Potenzial.
Erwecken Sie Porträts zum Leben. Erstellen Sie ausdrucksstarke Talking-Head-Videos aus einem einzigen Bild und Audio.
Hunyuan Custom ist Tencents hochmoderne multimodale Videogenerierungslösung, die es Nutzern ermöglicht, mithilfe von KI personalisierte, themenkonsistente Videos zu erstellen. Laden Sie ein Bild hoch, geben Sie eine Eingabeaufforderung ein oder fügen Sie Audio-/Videoeingaben hinzu, um in Sekundenschnelle Inhalte in Kinoqualität zu generieren.