Story321.com
Story321.com
InicioBlogPrecios
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Inicio
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogPrecios
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
InicioVideoImagen3DEscritura
Story321.com

Story321.com es la IA de historias para que escritores y narradores creen y compartan sus historias, libros, guiones, podcasts, videos y más con la ayuda de la IA.

Síguenos
X
Products
✍️Writing

Creación de texto

🖼️Image

Creación de imagen

🎬Video

Creación de video

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Empresa
  • Acerca de nosotros
  • Precios
  • Términos de servicio
  • Política de privacidad
  • Política de reembolso
  • Descargo de responsabilidad
Story321.com

Story321.com es la IA de historias para que escritores y narradores creen y compartan sus historias, libros, guiones, podcasts, videos y más con la ayuda de la IA.

Products
✍️Writing

Creación de texto

🖼️Image

Creación de imagen

🎬Video

Creación de video

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Empresa
  • Acerca de nosotros
  • Precios
  • Términos de servicio
  • Política de privacidad
  • Política de reembolso
  • Descargo de responsabilidad
Síguenos
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Todos los derechos reservados

Made with ❤️ for writers and storytellers
    1. Inicio
    2. Modelos de IA
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — Generación de Movimiento Humano 3D a partir de Texto a Escala

    Hunyuan Motion da vida al lenguaje natural con animación 3D de alta fidelidad basada en esqueletos

    Hunyuan Motion es una suite de modelos de generación de movimiento humano 3D a partir de texto de última generación que transforma indicaciones en inglés sencillo en animación fluida, realista y basada en esqueletos. Impulsado por un Diffusion Transformer de mil millones de parámetros entrenado con Flow Matching, Hunyuan Motion escala el seguimiento de instrucciones, el detalle del movimiento y la suavidad temporal a un nuevo nivel. El proyecto proporciona una CLI lista para usar y una aplicación Gradio interactiva para iteraciones rápidas, flujos de trabajo reproducibles y compatibilidad multiplataforma. Con preentrenamiento a gran escala, ajuste fino de alta calidad y aprendizaje por refuerzo a partir de la retroalimentación humana, Hunyuan Motion logra una calidad y confiabilidad de vanguardia para juegos, películas, VR/AR, producción virtual y flujos de trabajo de humanos digitales. Explora la implementación oficial de código abierto, los pesos preentrenados y las herramientas de inicio rápido en github.com.

    Texto a Movimiento
    Animación 3D
    Hunyuan Motion

    ¿Qué es Hunyuan Motion?

    Hunyuan Motion es una serie de modelos de generación de movimiento humano 3D a partir de texto que producen animaciones de personajes basadas en esqueletos directamente a partir de indicaciones en lenguaje natural. Construido sobre un Diffusion Transformer y entrenado con Flow Matching, Hunyuan Motion escala al nivel de mil millones de parámetros para mejorar significativamente el seguimiento de instrucciones y la calidad del movimiento en comparación con los sistemas de código abierto anteriores. El flujo de trabajo de entrenamiento combina tres fases: preentrenamiento masivo en diversos movimientos humanos, ajuste fino en secuencias seleccionadas de alta calidad y aprendizaje por refuerzo con retroalimentación humana, para ofrecer un movimiento suave, físicamente plausible que se alinea con las instrucciones textuales detalladas. El resultado es un flujo de trabajo de indicación a animación que se integra perfectamente en los flujos de trabajo 3D modernos. El proyecto se entrega con un modelo estándar (≈1.0B de parámetros) y una variante Lite (≈0.46B de parámetros) para diferentes envolventes de rendimiento, junto con soporte multiplataforma, CLI compatible con lotes y una interfaz de usuario Gradio fácil de usar para la exploración interactiva. Todos los detalles, actualizaciones e instrucciones de uso están disponibles en el repositorio oficial en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Diffusion Transformer con Flow Matching escalado a ~1B de parámetros para un seguimiento de instrucciones y una calidad de movimiento superiores [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Entrenamiento en tres etapas: preentrenamiento a gran escala, ajuste fino de alta calidad y RLHF para un movimiento natural y coherente [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    CLI y aplicación Gradio listas para usar para una inferencia local rápida y una visualización interactiva [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Características clave

    Qué hace diferente a Hunyuan Motion

    Diffusion Transformer + Flow Matching a escala de mil millones

    Hunyuan Motion escala una columna vertebral DiT con Flow Matching a ~1.0B de parámetros, lo que aumenta el seguimiento de instrucciones y la calidad del movimiento al tiempo que preserva la estabilidad entre fotogramas. Consulta la descripción oficial del modelo y la descripción general del entrenamiento en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Flujo de trabajo de entrenamiento en tres etapas

    El preentrenamiento a gran escala en más de 3000 horas de datos de movimiento construye priors amplios; 400 horas de ajuste fino seleccionado mejoran el detalle y la suavidad; RL de la retroalimentación humana refina la naturalidad y la adherencia a las indicaciones. Los detalles están documentados en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Zoológico de modelos: Estándar y Lite

    Elige HY-Motion-1.0 (~1.0B de parámetros) para una fidelidad de movimiento de última generación o HY-Motion-1.0-Lite (~0.46B) para implementaciones más ligeras. El repositorio proporciona pesos e instrucciones para una configuración rápida [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Generación de movimiento primero con texto

    Hunyuan Motion toma indicaciones en lenguaje sencillo y genera movimiento que se alinea con la acción, el estilo y el ritmo previstos, lo que permite el control creativo sin animar a mano cada pose.

    Ingeniería de indicaciones y estimación de duración

    Opcionalmente, conecta un estimador de duración basado en LLM y un módulo de reescritura de indicaciones para mejorar el ritmo y la claridad. Hunyuan Motion expone indicadores simples para habilitar o deshabilitar estos ayudantes según sea necesario [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI y Gradio incluidos

    Ejecuta trabajos por lotes a través de la CLI para grandes conjuntos de indicaciones o inicia un servidor Gradio local para la visualización interactiva. Estas herramientas se mantienen en el repositorio oficial con instrucciones y ejemplos claros en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Soporte multiplataforma

    Hunyuan Motion se ejecuta en macOS, Windows y Linux, lo que ayuda a los equipos mixtos a compartir flujos de trabajo. El repositorio incluye requisitos y scripts para una configuración e inferencia consistentes [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Salidas amigables para la producción

    Al generar movimiento basado en esqueletos, Hunyuan Motion se adapta a los flujos de trabajo de personajes rigged y admite el retargeting, la mezcla y la limpieza posteriores utilizando cadenas de herramientas DCC familiares.

    Cómo funciona Hunyuan Motion

    De la indicación a la animación de esqueletos

    1

    Análisis de instrucciones y planificación de la duración

    Un usuario escribe una indicación en lenguaje natural que describe la acción, el estilo y el ritmo deseados. Hunyuan Motion puede usar opcionalmente un módulo de reescritura de indicaciones y estimación de duración para aclarar la intención, inferir el tiempo y estandarizar la redacción antes de la generación. Este paso aumenta la alineación entre la descripción del texto y el resultado del movimiento, especialmente en acciones complejas o de varios pasos, como se documenta en el repositorio oficial en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    Muestreo DiT con Flow Matching y síntesis de esqueletos

    Hunyuan Motion muestrea trayectorias de movimiento con un Diffusion Transformer entrenado a través de Flow Matching. El modelo genera movimiento 3D suave, temporalmente coherente y basado en esqueletos que se adhiere a la indicación. El resultado se puede ver de forma interactiva en la aplicación Gradio o guardar a través de la CLI para la integración en tu flujo de trabajo 3D. Las instrucciones de uso completas se proporcionan en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Dónde usar Hunyuan Motion

    Desde la previsualización hasta la animación final

    Desarrollo y creación de prototipos de juegos

    Usa Hunyuan Motion para generar rápidamente movimientos de correr, saltar, atacar, expresar emociones y atravesar para crear prototipos de jugabilidad e iterar en la sensación del personaje. Los diseñadores pueden probar variaciones de indicaciones y exportar rápidamente movimiento basado en esqueletos para retargeting a rigs en el juego. Para bibliotecas más grandes, la CLI admite la inferencia por lotes y el nombramiento de salida consistente. El repositorio oficial muestra el flujo de trabajo y los indicadores recomendados en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Cine, VFX y producción virtual

    En los flujos de trabajo cinematográficos, Hunyuan Motion acelera la previsualización y el bloqueo. Los directores pueden esbozar la intención como texto, dejar que Hunyuan Motion genere movimiento de línea base y entregárselo a los animadores para su refinamiento. El comportamiento suave y de seguimiento de instrucciones ayuda a mantener las revisiones ajustadas y predecibles en todas las tomas.

    Humanos digitales e influencers virtuales

    Combina Hunyuan Motion con humanos digitales para sintetizar gestos expresivos, bucles inactivos y actos estilizados. Debido a que Hunyuan Motion se basa en indicaciones, los creadores no técnicos pueden explorar ideas de movimiento más rápido y colaborar con directores técnicos para pulir y entregar.

    VR/AR y experiencias inmersivas

    Hunyuan Motion admite la creación rápida de movimiento de multitudes ambiental, interacciones guiadas y ritmos narrativos que mejoran la inmersión. Las salidas basadas en esqueletos facilitan el retargeting de animaciones a rigs optimizados para auriculares y restricciones de tiempo de ejecución.

    Educación, investigación y laboratorios

    Los educadores e investigadores pueden usar Hunyuan Motion como referencia para los enfoques de Diffusion Transformer y Flow Matching para el movimiento. El código de código abierto del proyecto y el zoológico de modelos permiten experimentos reproducibles y puntos de referencia de seguimiento de instrucciones [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Estudios que construyen bibliotecas de movimiento internas

    Al construir una biblioteca consistente de movimientos de estilo de la casa, Hunyuan Motion proporciona una base coherente. Los equipos pueden especificar el tono, el ritmo y el estilo en el texto, generar tomas consistentes y estandarizar la revisión a través de la aplicación Gradio antes de ingerir en la gestión de activos.

    Preguntas frecuentes

    Todo lo que necesitas saber para empezar a generar con Hunyuan Motion

    ¿Qué genera exactamente Hunyuan Motion?

    Hunyuan Motion genera movimiento humano 3D basado en esqueletos a partir de indicaciones de texto, diseñado para integrarse en flujos de trabajo de animación 3D comunes. El modelo se centra en el realismo, la suavidad temporal y el seguimiento de instrucciones para que las acciones, los estilos y el ritmo reflejen lo que describes. Consulta la descripción general del proyecto y los ejemplos en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Cómo se entrena Hunyuan Motion?

    Hunyuan Motion utiliza un proceso de tres etapas: preentrenamiento a gran escala en más de 3000 horas de movimiento para aprender priors amplios, ajuste fino en 400 horas de datos seleccionados de alta calidad para el detalle y la suavidad, y aprendizaje por refuerzo con retroalimentación humana para refinar aún más la alineación de las instrucciones y la naturalidad. El resumen técnico y las notas de entrenamiento están en el repositorio oficial en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Cuál es la diferencia entre HY-Motion-1.0 y HY-Motion-1.0-Lite?

    Ambos son parte de Hunyuan Motion. HY-Motion-1.0 es el modelo estándar de ~1.0B de parámetros que maximiza el seguimiento de instrucciones y la fidelidad del movimiento, mientras que HY-Motion-1.0-Lite (~0.46B) está optimizado para implementaciones más ligeras y una respuesta más rápida. Elige en función de tu presupuesto de GPU y tus necesidades de calidad de movimiento. La guía de descarga del modelo se proporciona en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Cómo ejecuto Hunyuan Motion localmente?

    Instala PyTorch y los requisitos del proyecto, descarga los pesos preentrenados siguiendo las instrucciones del repositorio y luego elige tu interfaz preferida: usa la CLI para indicaciones por lotes o inicia la aplicación Gradio para una interfaz de usuario interactiva. Un inicio rápido paso a paso se detalla en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Puede Hunyuan Motion estimar la duración y reescribir las indicaciones automáticamente?

    Sí. Hunyuan Motion puede usar opcionalmente un estimador de duración y un módulo de reescritura de indicaciones para mejorar el ritmo y la claridad. Puedes habilitar o deshabilitar estos módulos a través de indicadores simples. Si no están disponibles, puedes desactivarlos explícitamente para evitar errores de conexión, como se describe en las notas de uso del repositorio en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Qué sistemas operativos admite Hunyuan Motion?

    Hunyuan Motion es compatible con macOS, Windows y Linux para la inferencia. Las instrucciones de instalación, las listas de dependencias y las herramientas para CLI y Gradio están disponibles en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Hay una demostración interactiva?

    Sí. El proyecto incluye una aplicación Gradio que puedes ejecutar localmente para la visualización interactiva. El repositorio oficial también apunta a un Hugging Face Space y un sitio oficial para probar el modelo. Encuentra enlaces y configuración en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ¿Cómo integro las salidas de Hunyuan Motion en mi flujo de trabajo?

    Debido a que Hunyuan Motion produce movimiento basado en esqueletos, se puede retargeting a tus rigs, mezclar con clips existentes y pasar a través de tus herramientas DCC para pulir. La CLI es adecuada para trabajos por lotes, mientras que la aplicación Gradio admite la exploración creativa y la revisión antes de la importación. Obtén más información en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Empieza a crear con Hunyuan Motion

    Convierte las indicaciones en animación de esqueletos lista para la producción hoy mismo. Sigue el inicio rápido en el repositorio oficial, inicia la aplicación Gradio para la visualización instantánea e itera rápidamente con la CLI para la generación de movimiento por lotes. Todo lo que necesitas para implementar Hunyuan Motion localmente, incluidas las dependencias, los puntos de control y las notas de uso, está disponible en github.com.

    Modelos relacionados

    Explora más modelos de IA del mismo proveedor

    Hunyuan 3D

    Transforma tus ideas e imágenes en impresionantes activos 3D listos para la producción con el revolucionario Hunyuan 3D de Tencent. Con modelos de difusión avanzados, síntesis de texturas profesional e integración perfecta del flujo de trabajo para el desarrollo de juegos, el diseño de productos y el arte digital.

    Más información

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    Más información

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    Más información

    Genere impresionantes recursos 3D sin esfuerzo con Hunyuan World

    Transforme texto e imágenes en modelos 3D de alta calidad. Libere su potencial creativo.

    Más información

    Genera avatares de vídeo realistas con Hunyuan Video Avatar

    Da vida a los retratos. Crea vídeos expresivos de cabezas parlantes a partir de una sola imagen y audio.

    Más información

    Hunyuan Custom – Herramienta de Generación de Video Multimodal con IA de Nueva Generación

    Hunyuan Custom es la solución de generación de video multimodal de última generación de Tencent que permite a los usuarios crear videos personalizados y con sujetos consistentes utilizando IA. Carga una imagen, escribe una indicación o añade una entrada de audio/video para generar contenido de calidad cinematográfica en segundos.

    Más información
    Ver todos los modelos