Story321.com
Story321.com
StartseiteBlogPreise
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Startseite
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogPreise
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
StartseiteVideoBild3DTexterstellung
Story321.com

Story321.com ist die Story-KI für Autoren und Geschichtenerzähler, um mit KI-Unterstützung Geschichten, Bücher, Drehbücher, Podcasts, Videos und mehr zu erstellen und zu teilen.

Folge uns
X
Products
✍️Writing

Texterstellung

🖼️Image

Bilderstellung

🎬Video

Videoerstellung

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Unternehmen
  • Über uns
  • Preise
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Rückerstattungsrichtlinie
  • Haftungsausschluss
Story321.com

Story321.com ist die Story-KI für Autoren und Geschichtenerzähler, um mit KI-Unterstützung Geschichten, Bücher, Drehbücher, Podcasts, Videos und mehr zu erstellen und zu teilen.

Products
✍️Writing

Texterstellung

🖼️Image

Bilderstellung

🎬Video

Videoerstellung

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Unternehmen
  • Über uns
  • Preise
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Rückerstattungsrichtlinie
  • Haftungsausschluss
Folge uns
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Alle Rechte vorbehalten

Made with ❤️ for writers and storytellers
    1. Startseite
    2. KI-Modelle
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 – Text-to-3D-Generierung menschlicher Bewegungen in großem Maßstab

    Hunyuan Motion erweckt natürliche Sprache zum Leben mit hochauflösender, skelettbasierter 3D-Animation

    Hunyuan Motion ist eine Text-zu-3D-Modellreihe der nächsten Generation zur Generierung menschlicher Bewegungen, die einfache englische Anweisungen in flüssige, realistische, skelettbasierte Animationen umwandelt. Angetrieben von einem Diffusions-Transformer mit einer Milliarde Parametern, der mit Flow Matching trainiert wurde, skaliert Hunyuan Motion die Befolgung von Anweisungen, Bewegungsdetails und zeitliche Glätte auf ein neues Niveau. Das Projekt bietet eine sofort einsatzbereite CLI und eine interaktive Gradio-App für schnelle Iterationen, reproduzierbare Workflows und plattformübergreifende Kompatibilität. Durch umfangreiches Vortraining, hochwertiges Feintuning und bestärkendes Lernen durch menschliches Feedback erreicht Hunyuan Motion modernste Qualität und Zuverlässigkeit für Spiele, Filme, VR/AR, virtuelle Produktion und digitale Human-Pipelines. Entdecken Sie die offizielle Open-Source-Implementierung, vortrainierte Gewichte und Schnellstart-Tools auf github.com.

    Text-to-Motion
    3D-Animation
    Hunyuan Motion

    Was ist Hunyuan Motion?

    Hunyuan Motion ist eine Reihe von Text-zu-3D-Modellen zur Generierung menschlicher Bewegungen, die skelettbasierte Charakteranimationen direkt aus natürlichsprachlichen Anweisungen erzeugen. Aufgebaut auf einem Diffusions-Transformer und trainiert mit Flow Matching, skaliert Hunyuan Motion auf die Milliarde-Parameter-Ebene, um die Befolgung von Anweisungen und die Bewegungsqualität im Vergleich zu früheren Open-Source-Systemen deutlich zu verbessern. Die Trainingspipeline kombiniert drei Phasen – massives Vortraining auf verschiedenen menschlichen Bewegungen, Feintuning auf kuratierten, hochwertigen Sequenzen und bestärkendes Lernen mit menschlichem Feedback –, um flüssige, physikalisch plausible Bewegungen zu liefern, die mit detaillierten textuellen Anweisungen übereinstimmen. Das Ergebnis ist ein Prompt-to-Animation-Workflow, der sich nahtlos in moderne 3D-Pipelines integriert. Das Projekt wird mit einem Standardmodell (≈1,0 Mrd. Parameter) und einer Lite-Variante (≈0,46 Mrd. Parameter) für unterschiedliche Leistungsprofile ausgeliefert, zusammen mit plattformübergreifender Unterstützung, Batch-freundlicher CLI und einer einfachen Gradio-UI zur interaktiven Erkundung. Vollständige Details, Updates und Nutzungsanweisungen sind im offiziellen Repository auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) verfügbar.

    Diffusions-Transformer mit Flow Matching, skaliert auf ~1 Mrd. Parameter für überlegene Befolgung von Anweisungen und Bewegungsqualität [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Dreistufiges Training: umfangreiches Vortraining, hochwertiges Feintuning und RLHF für natürliche, kohärente Bewegungen [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Sofort einsatzbereite CLI und Gradio-App für schnelle lokale Inferenz und interaktive Visualisierung [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Hauptmerkmale

    Was Hunyuan Motion auszeichnet

    Diffusions-Transformer + Flow Matching im Milliardenbereich

    Hunyuan Motion skaliert ein DiT-Backbone mit Flow Matching auf ~1,0 Mrd. Parameter, wodurch die Befolgung von Anweisungen und die Bewegungsqualität verbessert werden, während die Stabilität über alle Frames hinweg erhalten bleibt. Siehe die offizielle Modellbeschreibung und den Trainingsüberblick auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Dreistufige Trainingspipeline

    Umfangreiches Vortraining auf über 3.000 Stunden Bewegungsdaten baut breite Vorkenntnisse auf; 400 Stunden kuratiertes Feintuning verbessern Details und Glätte; RL durch menschliches Feedback verfeinert Natürlichkeit und Prompt-Einhaltung. Details sind auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) dokumentiert.

    Modellzoo: Standard und Lite

    Wählen Sie HY-Motion-1.0 (~1,0 Mrd. Parameter) für modernste Bewegungstreue oder HY-Motion-1.0-Lite (~0,46 Mrd.) für leichtere Bereitstellungen. Das Repository bietet Gewichte und Anweisungen für eine schnelle Einrichtung [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Text-First-Bewegungsgenerierung

    Hunyuan Motion nimmt Prompts in einfacher Sprache entgegen und gibt Bewegungen aus, die mit der beabsichtigten Aktion, dem Stil und dem Tempo übereinstimmen, wodurch kreative Kontrolle ohne Handanimation jeder Pose ermöglicht wird.

    Prompt Engineering und Dauerschätzung

    Verbinden Sie optional ein LLM-basiertes Dauerschätzungs- und Prompt-Rewriter-Modul, um Tempo und Klarheit zu verbessern. Hunyuan Motion stellt einfache Flags zur Verfügung, um diese Helfer nach Bedarf zu aktivieren oder zu deaktivieren [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI und Gradio enthalten

    Führen Sie Batch-Jobs über die CLI für große Prompt-Sets aus oder starten Sie einen lokalen Gradio-Server für interaktive Visualisierung. Diese Tools werden im offiziellen Repo mit klaren Anweisungen und Beispielen auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) verwaltet.

    Plattformübergreifende Unterstützung

    Hunyuan Motion läuft unter macOS, Windows und Linux und hilft gemischten Teams, Workflows zu teilen. Das Repo enthält Anforderungen und Skripte für eine konsistente Einrichtung und Inferenz [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Produktionsfreundliche Ausgaben

    Durch die Generierung skelettbasierter Bewegungen passt Hunyuan Motion in geriggte Charakterpipelines und unterstützt nachgelagertes Retargeting, Blending und Bereinigung mit vertrauten DCC-Toolchains.

    Wie Hunyuan Motion funktioniert

    Vom Prompt zur Skelettanimation

    1

    Anweisungsanalyse und Dauerplanung

    Ein Benutzer schreibt einen natürlichsprachlichen Prompt, der die gewünschte Aktion, den Stil und das Tempo beschreibt. Hunyuan Motion kann optional ein Prompt-Rewrite- und Dauerschätzungsmodul verwenden, um die Absicht zu verdeutlichen, das Timing abzuleiten und die Formulierung vor der Generierung zu standardisieren. Dieser Schritt erhöht die Übereinstimmung zwischen der Textbeschreibung und dem Bewegungsergebnis, insbesondere bei komplexen oder mehrstufigen Aktionen, wie im offiziellen Repository auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) dokumentiert.

    2

    Flow-Matched DiT-Sampling und Skelettsynthese

    Hunyuan Motion sampelt Bewegungstrajektorien mit einem Diffusions-Transformer, der über Flow Matching trainiert wurde. Das Modell gibt flüssige, zeitlich kohärente, skelettbasierte 3D-Bewegungen aus, die dem Prompt entsprechen. Das Ergebnis kann interaktiv in der Gradio-App angezeigt oder über die CLI zur Integration in Ihre 3D-Pipeline gespeichert werden. Vollständige Nutzungsanweisungen finden Sie auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Wo Hunyuan Motion eingesetzt werden kann

    Von der Vorvisualisierung bis zur endgültigen Animation

    Spieleentwicklung und Prototyping

    Verwenden Sie Hunyuan Motion, um schnell Lauf-, Sprung-, Angriffs-, Emote- und Bewegungsabläufe zu generieren, um Gameplay zu prototypisieren und das Charaktergefühl zu iterieren. Designer können Prompt-Variationen testen und schnell skelettbasierte Bewegungen für das Retargeting auf In-Game-Rigs exportieren. Für größere Bibliotheken unterstützt die CLI Batch-Inferenz und eine konsistente Ausgabenbenennung. Das offizielle Repo zeigt den empfohlenen Workflow und die Flags auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Film, VFX und virtuelle Produktion

    In filmischen Pipelines beschleunigt Hunyuan Motion Previz und Blocking. Regisseure können die Absicht als Text skizzieren, Hunyuan Motion eine Baseline-Bewegung generieren lassen und sie zur Verfeinerung an Animatoren weitergeben. Das flüssige, anweisungsfolgende Verhalten trägt dazu bei, Revisionen über alle Aufnahmen hinweg straff und vorhersehbar zu halten.

    Digitale Menschen und virtuelle Influencer

    Kombinieren Sie Hunyuan Motion mit digitalen Menschen, um ausdrucksstarke Gesten, Idle-Loops und stilisierte Handlungen zu synthetisieren. Da Hunyuan Motion Prompt-basiert ist, können nicht-technische Ersteller Bewegungs-Ideen schneller erkunden und mit technischen Direktoren für Politur und Auslieferung zusammenarbeiten.

    VR/AR und immersive Erlebnisse

    Hunyuan Motion unterstützt die schnelle Erstellung von Ambient-Crowd-Bewegungen, geführten Interaktionen und narrativen Beats, die das Eintauchen verbessern. Skelettbasierte Ausgaben machen es einfach, Animationen auf Headset-optimierte Rigs und Laufzeitbeschränkungen umzuleiten.

    Bildung, Forschung und Labore

    Pädagogen und Forscher können Hunyuan Motion als Referenz für Diffusions-Transformer- und Flow-Matching-Ansätze für Bewegungen verwenden. Der Open-Source-Code und der Modellzoo des Projekts ermöglichen reproduzierbare Experimente und Benchmarks zur Befolgung von Anweisungen [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Studios, die interne Bewegungsbibliotheken aufbauen

    Beim Aufbau einer konsistenten Bibliothek von Bewegungen im Hausstil bietet Hunyuan Motion eine kohärente Basis. Teams können Ton, Tempo und Stil im Text festlegen, konsistente Takes generieren und die Überprüfung über die Gradio-App standardisieren, bevor sie in das Asset-Management übernommen werden.

    Häufig gestellte Fragen

    Alles, was Sie wissen müssen, um mit Hunyuan Motion zu generieren

    Was genau generiert Hunyuan Motion?

    Hunyuan Motion generiert skelettbasierte 3D-Bewegungen von Menschen aus Text-Prompts, die für die Integration in gängige 3D-Animationspipelines entwickelt wurden. Das Modell konzentriert sich auf Realismus, zeitliche Glätte und Befolgung von Anweisungen, sodass Aktionen, Stile und Tempo das widerspiegeln, was Sie beschreiben. Siehe die Projektübersicht und Beispiele auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Wie wird Hunyuan Motion trainiert?

    Hunyuan Motion verwendet einen dreistufigen Prozess: umfangreiches Vortraining auf über 3.000 Stunden Bewegung, um breite Vorkenntnisse zu erlernen, Feintuning auf 400 Stunden kuratierter, hochwertiger Daten für Details und Glätte sowie bestärkendes Lernen mit menschlichem Feedback, um die Ausrichtung der Anweisungen und die Natürlichkeit weiter zu verfeinern. Die technische Zusammenfassung und die Trainingshinweise finden Sie im offiziellen Repo auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Was ist der Unterschied zwischen HY-Motion-1.0 und HY-Motion-1.0-Lite?

    Beide sind Teil von Hunyuan Motion. HY-Motion-1.0 ist das Standardmodell mit ~1,0 Mrd. Parametern, das die Befolgung von Anweisungen und die Bewegungstreue maximiert, während HY-Motion-1.0-Lite (~0,46 Mrd.) für leichtere Bereitstellungen und schnellere Durchlaufzeiten optimiert ist. Wählen Sie basierend auf Ihrem GPU-Budget und Ihren Anforderungen an die Bewegungsqualität. Eine Anleitung zum Herunterladen des Modells finden Sie auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Wie führe ich Hunyuan Motion lokal aus?

    Installieren Sie PyTorch und die Projektanforderungen, laden Sie die vortrainierten Gewichte gemäß den Anweisungen des Repo herunter und wählen Sie dann Ihre bevorzugte Schnittstelle: Verwenden Sie die CLI für Batch-Prompts oder starten Sie die Gradio-App für eine interaktive Benutzeroberfläche. Ein schrittweiser Schnellstart wird auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) beschrieben.

    Kann Hunyuan Motion die Dauer schätzen und Prompts automatisch umschreiben?

    Ja. Hunyuan Motion kann optional ein Dauerschätzungs- und Prompt-Rewrite-Modul verwenden, um Tempo und Klarheit zu verbessern. Sie können diese Module über einfache Flags aktivieren oder deaktivieren. Wenn sie nicht verfügbar sind, können Sie sie explizit deaktivieren, um Verbindungsfehler zu vermeiden, wie in den Nutzungshinweisen des Repositorys auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) beschrieben.

    Welche Betriebssysteme unterstützt Hunyuan Motion?

    Hunyuan Motion unterstützt macOS, Windows und Linux für die Inferenz. Installationsanweisungen, Abhängigkeitslisten und Tools für CLI und Gradio sind auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0) verfügbar.

    Gibt es eine interaktive Demo?

    Ja. Das Projekt enthält eine Gradio-App, die Sie lokal für die interaktive Visualisierung ausführen können. Das offizielle Repo verweist auch auf einen Hugging Face Space und eine offizielle Website zum Ausprobieren des Modells. Links und Einrichtung finden Sie auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Wie integriere ich Hunyuan Motion-Ausgaben in meine Pipeline?

    Da Hunyuan Motion skelettbasierte Bewegungen erzeugt, kann es auf Ihre Rigs umgeleitet, mit vorhandenen Clips gemischt und zur Politur durch Ihre DCC-Tools geleitet werden. Die CLI eignet sich für Batch-Jobs, während die Gradio-App die kreative Erkundung und Überprüfung vor dem Import unterstützt. Erfahren Sie mehr auf [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Beginnen Sie mit der Erstellung mit Hunyuan Motion

    Verwandeln Sie Prompts noch heute in produktionsreife Skelettanimationen. Befolgen Sie den Schnellstart im offiziellen Repository, starten Sie die Gradio-App für die sofortige Visualisierung und iterieren Sie schnell mit der CLI für die Batch-Bewegungsgenerierung. Alles, was Sie zum lokalen Bereitstellen von Hunyuan Motion benötigen – einschließlich Abhängigkeiten, Checkpoints und Nutzungshinweise – ist auf github.com verfügbar.

    Ähnliche Modelle

    Entdecken Sie weitere KI-Modelle vom selben Anbieter

    Hunyuan 3D

    Verwandeln Sie Ihre Ideen und Bilder mit dem revolutionären Hunyuan 3D von Tencent in beeindruckende, produktionsreife 3D-Assets. Mit fortschrittlichen Diffusionsmodellen, professioneller Textursynthese und nahtloser Workflow-Integration für Spieleentwicklung, Produktdesign und digitale Kunst.

    Mehr erfahren

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    Mehr erfahren

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    Mehr erfahren

    Mühelos beeindruckende 3D-Assets mit Hunyuan World generieren

    Verwandeln Sie Text und Bilder in hochwertige 3D-Modelle. Entfesseln Sie Ihr kreatives Potenzial.

    Mehr erfahren

    Generiere lebensechte Video-Avatare mit Hunyuan Video Avatar

    Erwecken Sie Porträts zum Leben. Erstellen Sie ausdrucksstarke Talking-Head-Videos aus einem einzigen Bild und Audio.

    Mehr erfahren

    Hunyuan Custom – KI-gestütztes Multimodales Videogenerierungstool der nächsten Generation

    Hunyuan Custom ist Tencents hochmoderne multimodale Videogenerierungslösung, die es Nutzern ermöglicht, mithilfe von KI personalisierte, themenkonsistente Videos zu erstellen. Laden Sie ein Bild hoch, geben Sie eine Eingabeaufforderung ein oder fügen Sie Audio-/Videoeingaben hinzu, um in Sekundenschnelle Inhalte in Kinoqualität zu generieren.

    Mehr erfahren
    Alle Modelle ansehen