Story321.com
Story321.com
InícioBlogPreços
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
Início
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogPreços
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
InícioVídeoImagem3DEscrita
Story321.com

Story321.com é a IA de histórias para escritores e contadores de histórias criarem e compartilharem suas histórias, livros, roteiros, podcasts, vídeos e muito mais com assistência de IA.

Siga-nos
X
Products
✍️Writing

Criação de Texto

🖼️Image

Criação de Imagem

🎬Video

Criação de Vídeo

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Empresa
  • Sobre Nós
  • Preços
  • Termos de Serviço
  • Política de Privacidade
  • Política de Reembolso
  • Aviso Legal
Story321.com

Story321.com é a IA de histórias para escritores e contadores de histórias criarem e compartilharem suas histórias, livros, roteiros, podcasts, vídeos e muito mais com assistência de IA.

Products
✍️Writing

Criação de Texto

🖼️Image

Criação de Imagem

🎬Video

Criação de Vídeo

Resources
  • AI Tools
  • Features
  • Models
  • Blog
Empresa
  • Sobre Nós
  • Preços
  • Termos de Serviço
  • Política de Privacidade
  • Política de Reembolso
  • Aviso Legal
Siga-nos
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. Todos os direitos reservados

Made with ❤️ for writers and storytellers
    1. Início
    2. Modelos de IA
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — Geração de Movimento Humano 3D a partir de Texto em Escala

    Hunyuan Motion dá vida à linguagem natural com animação 3D de alta fidelidade baseada em esqueleto

    Hunyuan Motion é um conjunto de modelos de geração de movimento humano 3D a partir de texto de última geração que transforma prompts em inglês simples em animações fluidas, realistas e baseadas em esqueleto. Impulsionado por um Diffusion Transformer de um bilhão de parâmetros treinado com Flow Matching, o Hunyuan Motion eleva o seguimento de instruções, o detalhe do movimento e a suavidade temporal a um novo nível. O projeto fornece CLI pronto para uso e um aplicativo Gradio interativo para iterações rápidas, fluxos de trabalho reproduzíveis e compatibilidade entre plataformas. Com pré-treinamento em larga escala, ajuste fino de alta qualidade e aprendizado por reforço a partir do feedback humano, o Hunyuan Motion alcança qualidade e confiabilidade de ponta para jogos, filmes, VR/AR, produção virtual e pipelines humanos digitais. Explore a implementação oficial de código aberto, os pesos pré-treinados e as ferramentas de início rápido em github.com.

    Texto para Movimento
    Animação 3D
    Hunyuan Motion

    O que é Hunyuan Motion?

    Hunyuan Motion é uma série de modelos de geração de movimento humano 3D a partir de texto que produzem animações de personagens baseadas em esqueleto diretamente de prompts em linguagem natural. Construído sobre um Diffusion Transformer e treinado com Flow Matching, o Hunyuan Motion escala para o nível de um bilhão de parâmetros para melhorar significativamente o seguimento de instruções e a qualidade do movimento em comparação com sistemas de código aberto anteriores. O pipeline de treinamento combina três fases — pré-treinamento massivo em diversos movimentos humanos, ajuste fino em sequências selecionadas de alta qualidade e aprendizado por reforço com feedback humano — para fornecer movimentos suaves, fisicamente plausíveis e alinhados com direções textuais detalhadas. O resultado é um fluxo de trabalho de prompt para animação que se integra perfeitamente em pipelines 3D modernos. O projeto é fornecido com um modelo padrão (≈1,0B parâmetros) e uma variante Lite (≈0,46B parâmetros) para diferentes envelopes de desempenho, juntamente com suporte multiplataforma, CLI amigável para lote e uma interface de usuário Gradio fácil para exploração interativa. Detalhes completos, atualizações e instruções de uso estão disponíveis no repositório oficial em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Diffusion Transformer com Flow Matching escalado para ~1B de parâmetros para seguimento de instruções e qualidade de movimento superiores [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Treinamento em três estágios: pré-treinamento em larga escala, ajuste fino de alta qualidade e RLHF para movimento natural e coerente [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    CLI pronto para uso e aplicativo Gradio para inferência local rápida e visualização interativa [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    Principais recursos

    O que torna o Hunyuan Motion diferente

    Diffusion Transformer + Flow Matching em escala de bilhões

    Hunyuan Motion escala um backbone DiT com Flow Matching para ~1,0B de parâmetros, aumentando o seguimento de instruções e a qualidade do movimento, preservando a estabilidade entre os quadros. Consulte a descrição oficial do modelo e a visão geral do treinamento em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Pipeline de treinamento em três estágios

    O pré-treinamento em larga escala em mais de 3.000 horas de dados de movimento constrói priors amplos; 400 horas de ajuste fino selecionado aprimoram o detalhe e a suavidade; RL do feedback humano refina a naturalidade e a adesão ao prompt. Os detalhes estão documentados em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Zoológico de modelos: Padrão e Lite

    Escolha HY-Motion-1.0 (~1,0B parâmetros) para fidelidade de movimento de última geração ou HY-Motion-1.0-Lite (~0,46B) para implantações mais leves. O repositório fornece pesos e instruções para configuração rápida [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Geração de movimento com prioridade ao texto

    Hunyuan Motion recebe prompts em linguagem simples e produz movimento que se alinha com a ação, o estilo e o ritmo pretendidos, permitindo o controle criativo sem animar cada pose manualmente.

    Engenharia de prompt e estimativa de duração

    Opcionalmente, conecte um estimador de duração baseado em LLM e um módulo de reescrita de prompt para melhorar o ritmo e a clareza. Hunyuan Motion expõe flags simples para ativar ou desativar esses auxiliares conforme necessário [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI e Gradio incluídos

    Execute trabalhos em lote por meio do CLI para grandes conjuntos de prompts ou inicie um servidor Gradio local para visualização interativa. Essas ferramentas são mantidas no repositório oficial com instruções e exemplos claros em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Suporte multiplataforma

    Hunyuan Motion é executado em macOS, Windows e Linux, ajudando equipes mistas a compartilhar fluxos de trabalho. O repositório inclui requisitos e scripts para configuração e inferência consistentes [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Saídas amigáveis à produção

    Ao gerar movimento baseado em esqueleto, o Hunyuan Motion se encaixa em pipelines de personagens rigged e suporta retargeting downstream, blending e limpeza usando toolchains DCC familiares.

    Como o Hunyuan Motion funciona

    Do prompt à animação de esqueleto

    1

    Análise de instruções e planejamento de duração

    Um usuário escreve um prompt em linguagem natural descrevendo a ação, o estilo e o ritmo desejados. Hunyuan Motion pode, opcionalmente, usar um módulo de reescrita de prompt e estimativa de duração para esclarecer a intenção, inferir o tempo e padronizar a fraseologia antes da geração. Esta etapa aumenta o alinhamento entre a descrição do texto e o resultado do movimento, especialmente em ações complexas ou de várias etapas, conforme documentado no repositório oficial em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    Amostragem DiT com Flow Matching e síntese de esqueleto

    Hunyuan Motion amostra trajetórias de movimento com um Diffusion Transformer treinado via Flow Matching. O modelo produz movimento 3D suave, temporalmente coerente e baseado em esqueleto que adere ao prompt. O resultado pode ser visualizado interativamente no aplicativo Gradio ou salvo via CLI para integração em seu pipeline 3D. Instruções de uso completas são fornecidas em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Onde usar Hunyuan Motion

    Da pré-visualização à animação final

    Desenvolvimento e prototipagem de jogos

    Use Hunyuan Motion para gerar rapidamente movimentos de corrida, salto, ataque, emote e travessia para prototipar a jogabilidade e iterar na sensação do personagem. Os designers podem testar variações de prompt e exportar rapidamente movimento baseado em esqueleto para retargeting para rigs no jogo. Para bibliotecas maiores, o CLI suporta inferência em lote e nomenclatura de saída consistente. O repositório oficial mostra o fluxo de trabalho e as flags recomendadas em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Filme, VFX e produção virtual

    Em pipelines cinematográficos, Hunyuan Motion acelera a pré-visualização e o bloqueio. Os diretores podem esboçar a intenção como texto, deixar o Hunyuan Motion gerar movimento de linha de base e entregá-lo aos animadores para refinamento. O comportamento suave e de seguimento de instruções ajuda a manter as revisões restritas e previsíveis em todas as tomadas.

    Humanos digitais e influenciadores virtuais

    Emparelhe Hunyuan Motion com humanos digitais para sintetizar gestos expressivos, loops ociosos e atos estilizados. Como o Hunyuan Motion é baseado em prompt, criadores não técnicos podem explorar ideias de movimento mais rapidamente e colaborar com diretores técnicos para polimento e entrega.

    VR/AR e experiências imersivas

    Hunyuan Motion suporta a criação rápida de movimento de multidão ambiente, interações guiadas e batidas narrativas que aprimoram a imersão. As saídas baseadas em esqueleto facilitam o retargeting de animações para rigs otimizados para headset e restrições de tempo de execução.

    Educação, pesquisa e laboratórios

    Educadores e pesquisadores podem usar Hunyuan Motion como referência para abordagens de Diffusion Transformer e Flow Matching para movimento. O código de código aberto do projeto e o zoológico de modelos permitem experimentos reproduzíveis e benchmarks de seguimento de instruções [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Estúdios construindo bibliotecas de movimento internas

    Ao construir uma biblioteca consistente de movimentos de estilo da casa, o Hunyuan Motion fornece uma base coerente. As equipes podem especificar tom, ritmo e estilo em texto, gerar tomadas consistentes e padronizar a revisão por meio do aplicativo Gradio antes de ingerir no gerenciamento de ativos.

    Perguntas frequentes

    Tudo o que você precisa saber para começar a gerar com Hunyuan Motion

    O que exatamente o Hunyuan Motion gera?

    Hunyuan Motion gera movimento humano 3D baseado em esqueleto a partir de prompts de texto, projetado para integrar-se a pipelines de animação 3D comuns. O modelo se concentra no realismo, na suavidade temporal e no seguimento de instruções para que ações, estilos e ritmo reflitam o que você descreve. Consulte a visão geral do projeto e os exemplos em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Como o Hunyuan Motion é treinado?

    Hunyuan Motion usa um processo de três estágios: pré-treinamento em larga escala em mais de 3.000 horas de movimento para aprender priors amplos, ajuste fino em 400 horas de dados selecionados de alta qualidade para detalhe e suavidade e aprendizado por reforço com feedback humano para refinar ainda mais o alinhamento de instruções e a naturalidade. O resumo técnico e as notas de treinamento estão no repositório oficial em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Qual é a diferença entre HY-Motion-1.0 e HY-Motion-1.0-Lite?

    Ambos fazem parte do Hunyuan Motion. HY-Motion-1.0 é o modelo padrão de ~1,0B de parâmetros que maximiza o seguimento de instruções e a fidelidade do movimento, enquanto HY-Motion-1.0-Lite (~0,46B) é otimizado para implantações mais leves e retorno mais rápido. Escolha com base no seu orçamento de GPU e nas necessidades de qualidade de movimento. A orientação para download do modelo é fornecida em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Como executo o Hunyuan Motion localmente?

    Instale o PyTorch e os requisitos do projeto, baixe os pesos pré-treinados seguindo as instruções do repositório e, em seguida, escolha sua interface preferida: use o CLI para prompts em lote ou inicie o aplicativo Gradio para uma interface de usuário interativa. Um início rápido passo a passo é detalhado em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    O Hunyuan Motion pode estimar a duração e reescrever prompts automaticamente?

    Sim. Hunyuan Motion pode, opcionalmente, usar um estimador de duração e um módulo de reescrita de prompt para melhorar o ritmo e a clareza. Você pode ativar ou desativar esses módulos por meio de flags simples. Se eles não estiverem disponíveis, você pode desativá-los explicitamente para evitar erros de conexão, conforme descrito nas notas de uso do repositório em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Quais sistemas operacionais o Hunyuan Motion suporta?

    Hunyuan Motion suporta macOS, Windows e Linux para inferência. Instruções de instalação, listas de dependências e ferramentas para CLI e Gradio estão disponíveis em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Existe uma demonstração interativa?

    Sim. O projeto inclui um aplicativo Gradio que você pode executar localmente para visualização interativa. O repositório oficial também aponta para um Hugging Face Space e um site oficial para experimentar o modelo. Encontre links e configuração em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Como integro as saídas do Hunyuan Motion em meu pipeline?

    Como o Hunyuan Motion produz movimento baseado em esqueleto, ele pode ser retargeted para seus rigs, misturado com clipes existentes e passado por suas ferramentas DCC para polimento. O CLI é adequado para trabalhos em lote, enquanto o aplicativo Gradio suporta exploração criativa e revisão antes da importação. Saiba mais em [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    Comece a criar com Hunyuan Motion

    Transforme prompts em animação de esqueleto pronta para produção hoje mesmo. Siga o início rápido no repositório oficial, inicie o aplicativo Gradio para visualização instantânea e itere rapidamente com o CLI para geração de movimento em lote. Tudo o que você precisa para implantar o Hunyuan Motion localmente — incluindo dependências, checkpoints e notas de uso — está disponível em github.com.

    Modelos Relacionados

    Explore mais modelos de IA do mesmo provedor

    Hunyuan 3D

    Transforme suas ideias e imagens em ativos 3D impressionantes e prontos para produção com o revolucionário Hunyuan 3D da Tencent. Apresentando modelos de difusão avançados, síntese de textura profissional e integração perfeita de fluxo de trabalho para desenvolvimento de jogos, design de produtos e arte digital.

    Saiba Mais

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    Saiba Mais

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    Saiba Mais

    Gere impressionantes recursos 3D sem esforço com Hunyuan World

    Transforme texto e imagens em modelos 3D de alta qualidade. Libere seu potencial criativo.

    Saiba Mais

    Gere Avatares de Vídeo Realistas com Hunyuan Video Avatar

    Dê vida aos retratos. Crie vídeos expressivos de cabeças falantes a partir de uma única imagem e áudio.

    Saiba Mais

    Hunyuan Custom – Ferramenta de Geração de Vídeo Multimodal com IA de Próxima Geração

    Hunyuan Custom é a solução de última geração da Tencent para geração de vídeo multimodal que permite aos usuários criar vídeos personalizados e com consistência de assunto usando IA. Envie uma imagem, digite um prompt ou adicione entrada de áudio/vídeo para gerar conteúdo com qualidade cinematográfica em segundos.

    Saiba Mais
    Ver Todos os Modelos