Hunyuan Motion dá vida à linguagem natural com animação 3D de alta fidelidade baseada em esqueleto
Hunyuan Motion é um conjunto de modelos de geração de movimento humano 3D a partir de texto de última geração que transforma prompts em inglês simples em animações fluidas, realistas e baseadas em esqueleto. Impulsionado por um Diffusion Transformer de um bilhão de parâmetros treinado com Flow Matching, o Hunyuan Motion eleva o seguimento de instruções, o detalhe do movimento e a suavidade temporal a um novo nível. O projeto fornece CLI pronto para uso e um aplicativo Gradio interativo para iterações rápidas, fluxos de trabalho reproduzíveis e compatibilidade entre plataformas. Com pré-treinamento em larga escala, ajuste fino de alta qualidade e aprendizado por reforço a partir do feedback humano, o Hunyuan Motion alcança qualidade e confiabilidade de ponta para jogos, filmes, VR/AR, produção virtual e pipelines humanos digitais. Explore a implementação oficial de código aberto, os pesos pré-treinados e as ferramentas de início rápido em github.com.

Hunyuan Motion é uma série de modelos de geração de movimento humano 3D a partir de texto que produzem animações de personagens baseadas em esqueleto diretamente de prompts em linguagem natural. Construído sobre um Diffusion Transformer e treinado com Flow Matching, o Hunyuan Motion escala para o nível de um bilhão de parâmetros para melhorar significativamente o seguimento de instruções e a qualidade do movimento em comparação com sistemas de código aberto anteriores. O pipeline de treinamento combina três fases — pré-treinamento massivo em diversos movimentos humanos, ajuste fino em sequências selecionadas de alta qualidade e aprendizado por reforço com feedback humano — para fornecer movimentos suaves, fisicamente plausíveis e alinhados com direções textuais detalhadas. O resultado é um fluxo de trabalho de prompt para animação que se integra perfeitamente em pipelines 3D modernos. O projeto é fornecido com um modelo padrão (≈1,0B parâmetros) e uma variante Lite (≈0,46B parâmetros) para diferentes envelopes de desempenho, juntamente com suporte multiplataforma, CLI amigável para lote e uma interface de usuário Gradio fácil para exploração interativa. Detalhes completos, atualizações e instruções de uso estão disponíveis no repositório oficial em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer com Flow Matching escalado para ~1B de parâmetros para seguimento de instruções e qualidade de movimento superiores [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Treinamento em três estágios: pré-treinamento em larga escala, ajuste fino de alta qualidade e RLHF para movimento natural e coerente [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
CLI pronto para uso e aplicativo Gradio para inferência local rápida e visualização interativa [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
O que torna o Hunyuan Motion diferente
Hunyuan Motion escala um backbone DiT com Flow Matching para ~1,0B de parâmetros, aumentando o seguimento de instruções e a qualidade do movimento, preservando a estabilidade entre os quadros. Consulte a descrição oficial do modelo e a visão geral do treinamento em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
O pré-treinamento em larga escala em mais de 3.000 horas de dados de movimento constrói priors amplos; 400 horas de ajuste fino selecionado aprimoram o detalhe e a suavidade; RL do feedback humano refina a naturalidade e a adesão ao prompt. Os detalhes estão documentados em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Escolha HY-Motion-1.0 (~1,0B parâmetros) para fidelidade de movimento de última geração ou HY-Motion-1.0-Lite (~0,46B) para implantações mais leves. O repositório fornece pesos e instruções para configuração rápida [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion recebe prompts em linguagem simples e produz movimento que se alinha com a ação, o estilo e o ritmo pretendidos, permitindo o controle criativo sem animar cada pose manualmente.
Opcionalmente, conecte um estimador de duração baseado em LLM e um módulo de reescrita de prompt para melhorar o ritmo e a clareza. Hunyuan Motion expõe flags simples para ativar ou desativar esses auxiliares conforme necessário [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Execute trabalhos em lote por meio do CLI para grandes conjuntos de prompts ou inicie um servidor Gradio local para visualização interativa. Essas ferramentas são mantidas no repositório oficial com instruções e exemplos claros em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion é executado em macOS, Windows e Linux, ajudando equipes mistas a compartilhar fluxos de trabalho. O repositório inclui requisitos e scripts para configuração e inferência consistentes [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ao gerar movimento baseado em esqueleto, o Hunyuan Motion se encaixa em pipelines de personagens rigged e suporta retargeting downstream, blending e limpeza usando toolchains DCC familiares.
Do prompt à animação de esqueleto
Um usuário escreve um prompt em linguagem natural descrevendo a ação, o estilo e o ritmo desejados. Hunyuan Motion pode, opcionalmente, usar um módulo de reescrita de prompt e estimativa de duração para esclarecer a intenção, inferir o tempo e padronizar a fraseologia antes da geração. Esta etapa aumenta o alinhamento entre a descrição do texto e o resultado do movimento, especialmente em ações complexas ou de várias etapas, conforme documentado no repositório oficial em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion amostra trajetórias de movimento com um Diffusion Transformer treinado via Flow Matching. O modelo produz movimento 3D suave, temporalmente coerente e baseado em esqueleto que adere ao prompt. O resultado pode ser visualizado interativamente no aplicativo Gradio ou salvo via CLI para integração em seu pipeline 3D. Instruções de uso completas são fornecidas em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Da pré-visualização à animação final
Use Hunyuan Motion para gerar rapidamente movimentos de corrida, salto, ataque, emote e travessia para prototipar a jogabilidade e iterar na sensação do personagem. Os designers podem testar variações de prompt e exportar rapidamente movimento baseado em esqueleto para retargeting para rigs no jogo. Para bibliotecas maiores, o CLI suporta inferência em lote e nomenclatura de saída consistente. O repositório oficial mostra o fluxo de trabalho e as flags recomendadas em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Em pipelines cinematográficos, Hunyuan Motion acelera a pré-visualização e o bloqueio. Os diretores podem esboçar a intenção como texto, deixar o Hunyuan Motion gerar movimento de linha de base e entregá-lo aos animadores para refinamento. O comportamento suave e de seguimento de instruções ajuda a manter as revisões restritas e previsíveis em todas as tomadas.
Emparelhe Hunyuan Motion com humanos digitais para sintetizar gestos expressivos, loops ociosos e atos estilizados. Como o Hunyuan Motion é baseado em prompt, criadores não técnicos podem explorar ideias de movimento mais rapidamente e colaborar com diretores técnicos para polimento e entrega.
Hunyuan Motion suporta a criação rápida de movimento de multidão ambiente, interações guiadas e batidas narrativas que aprimoram a imersão. As saídas baseadas em esqueleto facilitam o retargeting de animações para rigs otimizados para headset e restrições de tempo de execução.
Educadores e pesquisadores podem usar Hunyuan Motion como referência para abordagens de Diffusion Transformer e Flow Matching para movimento. O código de código aberto do projeto e o zoológico de modelos permitem experimentos reproduzíveis e benchmarks de seguimento de instruções [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ao construir uma biblioteca consistente de movimentos de estilo da casa, o Hunyuan Motion fornece uma base coerente. As equipes podem especificar tom, ritmo e estilo em texto, gerar tomadas consistentes e padronizar a revisão por meio do aplicativo Gradio antes de ingerir no gerenciamento de ativos.
Tudo o que você precisa saber para começar a gerar com Hunyuan Motion
Hunyuan Motion gera movimento humano 3D baseado em esqueleto a partir de prompts de texto, projetado para integrar-se a pipelines de animação 3D comuns. O modelo se concentra no realismo, na suavidade temporal e no seguimento de instruções para que ações, estilos e ritmo reflitam o que você descreve. Consulte a visão geral do projeto e os exemplos em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion usa um processo de três estágios: pré-treinamento em larga escala em mais de 3.000 horas de movimento para aprender priors amplos, ajuste fino em 400 horas de dados selecionados de alta qualidade para detalhe e suavidade e aprendizado por reforço com feedback humano para refinar ainda mais o alinhamento de instruções e a naturalidade. O resumo técnico e as notas de treinamento estão no repositório oficial em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Ambos fazem parte do Hunyuan Motion. HY-Motion-1.0 é o modelo padrão de ~1,0B de parâmetros que maximiza o seguimento de instruções e a fidelidade do movimento, enquanto HY-Motion-1.0-Lite (~0,46B) é otimizado para implantações mais leves e retorno mais rápido. Escolha com base no seu orçamento de GPU e nas necessidades de qualidade de movimento. A orientação para download do modelo é fornecida em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Instale o PyTorch e os requisitos do projeto, baixe os pesos pré-treinados seguindo as instruções do repositório e, em seguida, escolha sua interface preferida: use o CLI para prompts em lote ou inicie o aplicativo Gradio para uma interface de usuário interativa. Um início rápido passo a passo é detalhado em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Sim. Hunyuan Motion pode, opcionalmente, usar um estimador de duração e um módulo de reescrita de prompt para melhorar o ritmo e a clareza. Você pode ativar ou desativar esses módulos por meio de flags simples. Se eles não estiverem disponíveis, você pode desativá-los explicitamente para evitar erros de conexão, conforme descrito nas notas de uso do repositório em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion suporta macOS, Windows e Linux para inferência. Instruções de instalação, listas de dependências e ferramentas para CLI e Gradio estão disponíveis em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Sim. O projeto inclui um aplicativo Gradio que você pode executar localmente para visualização interativa. O repositório oficial também aponta para um Hugging Face Space e um site oficial para experimentar o modelo. Encontre links e configuração em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Como o Hunyuan Motion produz movimento baseado em esqueleto, ele pode ser retargeted para seus rigs, misturado com clipes existentes e passado por suas ferramentas DCC para polimento. O CLI é adequado para trabalhos em lote, enquanto o aplicativo Gradio suporta exploração criativa e revisão antes da importação. Saiba mais em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Transforme prompts em animação de esqueleto pronta para produção hoje mesmo. Siga o início rápido no repositório oficial, inicie o aplicativo Gradio para visualização instantânea e itere rapidamente com o CLI para geração de movimento em lote. Tudo o que você precisa para implantar o Hunyuan Motion localmente — incluindo dependências, checkpoints e notas de uso — está disponível em github.com.
Explore mais modelos de IA do mesmo provedor
Transforme suas ideias e imagens em ativos 3D impressionantes e prontos para produção com o revolucionário Hunyuan 3D da Tencent. Apresentando modelos de difusão avançados, síntese de textura profissional e integração perfeita de fluxo de trabalho para desenvolvimento de jogos, design de produtos e arte digital.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Transforme texto e imagens em modelos 3D de alta qualidade. Libere seu potencial criativo.
Dê vida aos retratos. Crie vídeos expressivos de cabeças falantes a partir de uma única imagem e áudio.
Hunyuan Custom é a solução de última geração da Tencent para geração de vídeo multimodal que permite aos usuários criar vídeos personalizados e com consistência de assunto usando IA. Envie uma imagem, digite um prompt ou adicione entrada de áudio/vídeo para gerar conteúdo com qualidade cinematográfica em segundos.