Hunyuan Motion da vida al lenguaje natural con animación 3D de alta fidelidad basada en esqueletos
Hunyuan Motion es una suite de modelos de generación de movimiento humano 3D a partir de texto de última generación que transforma indicaciones en inglés sencillo en animación fluida, realista y basada en esqueletos. Impulsado por un Diffusion Transformer de mil millones de parámetros entrenado con Flow Matching, Hunyuan Motion escala el seguimiento de instrucciones, el detalle del movimiento y la suavidad temporal a un nuevo nivel. El proyecto proporciona una CLI lista para usar y una aplicación Gradio interactiva para iteraciones rápidas, flujos de trabajo reproducibles y compatibilidad multiplataforma. Con preentrenamiento a gran escala, ajuste fino de alta calidad y aprendizaje por refuerzo a partir de la retroalimentación humana, Hunyuan Motion logra una calidad y confiabilidad de vanguardia para juegos, películas, VR/AR, producción virtual y flujos de trabajo de humanos digitales. Explora la implementación oficial de código abierto, los pesos preentrenados y las herramientas de inicio rápido en github.com.

Hunyuan Motion es una serie de modelos de generación de movimiento humano 3D a partir de texto que producen animaciones de personajes basadas en esqueletos directamente a partir de indicaciones en lenguaje natural. Construido sobre un Diffusion Transformer y entrenado con Flow Matching, Hunyuan Motion escala al nivel de mil millones de parámetros para mejorar significativamente el seguimiento de instrucciones y la calidad del movimiento en comparación con los sistemas de código abierto anteriores. El flujo de trabajo de entrenamiento combina tres fases: preentrenamiento masivo en diversos movimientos humanos, ajuste fino en secuencias seleccionadas de alta calidad y aprendizaje por refuerzo con retroalimentación humana, para ofrecer un movimiento suave, físicamente plausible que se alinea con las instrucciones textuales detalladas. El resultado es un flujo de trabajo de indicación a animación que se integra perfectamente en los flujos de trabajo 3D modernos. El proyecto se entrega con un modelo estándar (≈1.0B de parámetros) y una variante Lite (≈0.46B de parámetros) para diferentes envolventes de rendimiento, junto con soporte multiplataforma, CLI compatible con lotes y una interfaz de usuario Gradio fácil de usar para la exploración interactiva. Todos los detalles, actualizaciones e instrucciones de uso están disponibles en el repositorio oficial en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer con Flow Matching escalado a ~1B de parámetros para un seguimiento de instrucciones y una calidad de movimiento superiores [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Entrenamiento en tres etapas: preentrenamiento a gran escala, ajuste fino de alta calidad y RLHF para un movimiento natural y coherente [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
CLI y aplicación Gradio listas para usar para una inferencia local rápida y una visualización interactiva [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Qué hace diferente a Hunyuan Motion
Hunyuan Motion escala una columna vertebral DiT con Flow Matching a ~1.0B de parámetros, lo que aumenta el seguimiento de instrucciones y la calidad del movimiento al tiempo que preserva la estabilidad entre fotogramas. Consulta la descripción oficial del modelo y la descripción general del entrenamiento en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
El preentrenamiento a gran escala en más de 3000 horas de datos de movimiento construye priors amplios; 400 horas de ajuste fino seleccionado mejoran el detalle y la suavidad; RL de la retroalimentación humana refina la naturalidad y la adherencia a las indicaciones. Los detalles están documentados en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Elige HY-Motion-1.0 (~1.0B de parámetros) para una fidelidad de movimiento de última generación o HY-Motion-1.0-Lite (~0.46B) para implementaciones más ligeras. El repositorio proporciona pesos e instrucciones para una configuración rápida [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion toma indicaciones en lenguaje sencillo y genera movimiento que se alinea con la acción, el estilo y el ritmo previstos, lo que permite el control creativo sin animar a mano cada pose.
Opcionalmente, conecta un estimador de duración basado en LLM y un módulo de reescritura de indicaciones para mejorar el ritmo y la claridad. Hunyuan Motion expone indicadores simples para habilitar o deshabilitar estos ayudantes según sea necesario [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ejecuta trabajos por lotes a través de la CLI para grandes conjuntos de indicaciones o inicia un servidor Gradio local para la visualización interactiva. Estas herramientas se mantienen en el repositorio oficial con instrucciones y ejemplos claros en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion se ejecuta en macOS, Windows y Linux, lo que ayuda a los equipos mixtos a compartir flujos de trabajo. El repositorio incluye requisitos y scripts para una configuración e inferencia consistentes [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Al generar movimiento basado en esqueletos, Hunyuan Motion se adapta a los flujos de trabajo de personajes rigged y admite el retargeting, la mezcla y la limpieza posteriores utilizando cadenas de herramientas DCC familiares.
De la indicación a la animación de esqueletos
Un usuario escribe una indicación en lenguaje natural que describe la acción, el estilo y el ritmo deseados. Hunyuan Motion puede usar opcionalmente un módulo de reescritura de indicaciones y estimación de duración para aclarar la intención, inferir el tiempo y estandarizar la redacción antes de la generación. Este paso aumenta la alineación entre la descripción del texto y el resultado del movimiento, especialmente en acciones complejas o de varios pasos, como se documenta en el repositorio oficial en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion muestrea trayectorias de movimiento con un Diffusion Transformer entrenado a través de Flow Matching. El modelo genera movimiento 3D suave, temporalmente coherente y basado en esqueletos que se adhiere a la indicación. El resultado se puede ver de forma interactiva en la aplicación Gradio o guardar a través de la CLI para la integración en tu flujo de trabajo 3D. Las instrucciones de uso completas se proporcionan en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Desde la previsualización hasta la animación final
Usa Hunyuan Motion para generar rápidamente movimientos de correr, saltar, atacar, expresar emociones y atravesar para crear prototipos de jugabilidad e iterar en la sensación del personaje. Los diseñadores pueden probar variaciones de indicaciones y exportar rápidamente movimiento basado en esqueletos para retargeting a rigs en el juego. Para bibliotecas más grandes, la CLI admite la inferencia por lotes y el nombramiento de salida consistente. El repositorio oficial muestra el flujo de trabajo y los indicadores recomendados en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
En los flujos de trabajo cinematográficos, Hunyuan Motion acelera la previsualización y el bloqueo. Los directores pueden esbozar la intención como texto, dejar que Hunyuan Motion genere movimiento de línea base y entregárselo a los animadores para su refinamiento. El comportamiento suave y de seguimiento de instrucciones ayuda a mantener las revisiones ajustadas y predecibles en todas las tomas.
Combina Hunyuan Motion con humanos digitales para sintetizar gestos expresivos, bucles inactivos y actos estilizados. Debido a que Hunyuan Motion se basa en indicaciones, los creadores no técnicos pueden explorar ideas de movimiento más rápido y colaborar con directores técnicos para pulir y entregar.
Hunyuan Motion admite la creación rápida de movimiento de multitudes ambiental, interacciones guiadas y ritmos narrativos que mejoran la inmersión. Las salidas basadas en esqueletos facilitan el retargeting de animaciones a rigs optimizados para auriculares y restricciones de tiempo de ejecución.
Los educadores e investigadores pueden usar Hunyuan Motion como referencia para los enfoques de Diffusion Transformer y Flow Matching para el movimiento. El código de código abierto del proyecto y el zoológico de modelos permiten experimentos reproducibles y puntos de referencia de seguimiento de instrucciones [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Al construir una biblioteca consistente de movimientos de estilo de la casa, Hunyuan Motion proporciona una base coherente. Los equipos pueden especificar el tono, el ritmo y el estilo en el texto, generar tomas consistentes y estandarizar la revisión a través de la aplicación Gradio antes de ingerir en la gestión de activos.
Todo lo que necesitas saber para empezar a generar con Hunyuan Motion
Hunyuan Motion genera movimiento humano 3D basado en esqueletos a partir de indicaciones de texto, diseñado para integrarse en flujos de trabajo de animación 3D comunes. El modelo se centra en el realismo, la suavidad temporal y el seguimiento de instrucciones para que las acciones, los estilos y el ritmo reflejen lo que describes. Consulta la descripción general del proyecto y los ejemplos en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion utiliza un proceso de tres etapas: preentrenamiento a gran escala en más de 3000 horas de movimiento para aprender priors amplios, ajuste fino en 400 horas de datos seleccionados de alta calidad para el detalle y la suavidad, y aprendizaje por refuerzo con retroalimentación humana para refinar aún más la alineación de las instrucciones y la naturalidad. El resumen técnico y las notas de entrenamiento están en el repositorio oficial en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ambos son parte de Hunyuan Motion. HY-Motion-1.0 es el modelo estándar de ~1.0B de parámetros que maximiza el seguimiento de instrucciones y la fidelidad del movimiento, mientras que HY-Motion-1.0-Lite (~0.46B) está optimizado para implementaciones más ligeras y una respuesta más rápida. Elige en función de tu presupuesto de GPU y tus necesidades de calidad de movimiento. La guía de descarga del modelo se proporciona en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Instala PyTorch y los requisitos del proyecto, descarga los pesos preentrenados siguiendo las instrucciones del repositorio y luego elige tu interfaz preferida: usa la CLI para indicaciones por lotes o inicia la aplicación Gradio para una interfaz de usuario interactiva. Un inicio rápido paso a paso se detalla en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Sí. Hunyuan Motion puede usar opcionalmente un estimador de duración y un módulo de reescritura de indicaciones para mejorar el ritmo y la claridad. Puedes habilitar o deshabilitar estos módulos a través de indicadores simples. Si no están disponibles, puedes desactivarlos explícitamente para evitar errores de conexión, como se describe en las notas de uso del repositorio en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion es compatible con macOS, Windows y Linux para la inferencia. Las instrucciones de instalación, las listas de dependencias y las herramientas para CLI y Gradio están disponibles en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Sí. El proyecto incluye una aplicación Gradio que puedes ejecutar localmente para la visualización interactiva. El repositorio oficial también apunta a un Hugging Face Space y un sitio oficial para probar el modelo. Encuentra enlaces y configuración en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Debido a que Hunyuan Motion produce movimiento basado en esqueletos, se puede retargeting a tus rigs, mezclar con clips existentes y pasar a través de tus herramientas DCC para pulir. La CLI es adecuada para trabajos por lotes, mientras que la aplicación Gradio admite la exploración creativa y la revisión antes de la importación. Obtén más información en [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Convierte las indicaciones en animación de esqueletos lista para la producción hoy mismo. Sigue el inicio rápido en el repositorio oficial, inicia la aplicación Gradio para la visualización instantánea e itera rápidamente con la CLI para la generación de movimiento por lotes. Todo lo que necesitas para implementar Hunyuan Motion localmente, incluidas las dependencias, los puntos de control y las notas de uso, está disponible en github.com.
Explora más modelos de IA del mismo proveedor
Transforma tus ideas e imágenes en impresionantes activos 3D listos para la producción con el revolucionario Hunyuan 3D de Tencent. Con modelos de difusión avanzados, síntesis de texturas profesional e integración perfecta del flujo de trabajo para el desarrollo de juegos, el diseño de productos y el arte digital.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Transforme texto e imágenes en modelos 3D de alta calidad. Libere su potencial creativo.
Da vida a los retratos. Crea vídeos expresivos de cabezas parlantes a partir de una sola imagen y audio.
Hunyuan Custom es la solución de generación de video multimodal de última generación de Tencent que permite a los usuarios crear videos personalizados y con sujetos consistentes utilizando IA. Carga una imagen, escribe una indicación o añade una entrada de audio/video para generar contenido de calidad cinematográfica en segundos.