Hunyuan Motion оживляет естественный язык с помощью высокоточной 3D-анимации на основе скелета
Hunyuan Motion — это модель нового поколения для генерации 3D-движений человека из текста, которая преобразует простые текстовые запросы на английском языке в плавную, реалистичную анимацию на основе скелета. Hunyuan Motion, основанная на Diffusion Transformer с миллиардом параметров, обученном с помощью Flow Matching, выводит следование инструкциям, детализацию движений и временную плавность на новый уровень. Проект предоставляет готовый к использованию CLI и интерактивное приложение Gradio для быстрой итерации, воспроизводимых рабочих процессов и кроссплатформенной совместимости. Благодаря масштабному предварительному обучению, высококачественной тонкой настройке и обучению с подкреплением на основе обратной связи от человека, Hunyuan Motion достигает современного уровня качества и надежности для игр, фильмов, VR/AR, виртуального производства и конвейеров цифровых людей. Изучите официальную реализацию с открытым исходным кодом, предварительно обученные веса и инструменты быстрого запуска на github.com.

Hunyuan Motion — это серия моделей для генерации 3D-движений человека из текста, которые создают анимацию персонажей на основе скелета непосредственно из текстовых запросов на естественном языке. Hunyuan Motion, построенная на Diffusion Transformer и обученная с помощью Flow Matching, масштабируется до уровня миллиарда параметров, что значительно улучшает следование инструкциям и качество движений по сравнению с предыдущими системами с открытым исходным кодом. Конвейер обучения сочетает в себе три этапа — масштабное предварительное обучение на разнообразных движениях человека, тонкую настройку на отобранных высококачественных последовательностях и обучение с подкреплением с обратной связью от человека — для обеспечения плавных, физически правдоподобных движений, которые соответствуют подробным текстовым указаниям. Результатом является рабочий процесс преобразования запроса в анимацию, который легко интегрируется в современные 3D-конвейеры. Проект поставляется со стандартной моделью (≈1,0 млрд параметров) и облегченным вариантом (≈0,46 млрд параметров) для различных характеристик производительности, а также с кроссплатформенной поддержкой, удобным для пакетной обработки CLI и простым пользовательским интерфейсом Gradio для интерактивного исследования. Полная информация, обновления и инструкции по использованию доступны в официальном репозитории на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Diffusion Transformer с Flow Matching, масштабированный до ~1 млрд параметров для превосходного следования инструкциям и качества движений [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Трехэтапное обучение: масштабное предварительное обучение, высококачественная тонкая настройка и RLHF для естественных, связных движений [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Готовый к использованию CLI и приложение Gradio для быстрого локального вывода и интерактивной визуализации [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)
Что отличает Hunyuan Motion
Hunyuan Motion масштабирует основу DiT с Flow Matching до ~1,0 млрд параметров, повышая следование инструкциям и качество движений, сохраняя при этом стабильность между кадрами. См. официальное описание модели и обзор обучения на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Масштабное предварительное обучение на более чем 3000 часах данных о движении создает широкие априорные знания; 400 часов тщательно отобранной тонкой настройки повышают детализацию и плавность; RL с обратной связью от человека улучшает естественность и соответствие запросам. Подробности задокументированы на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Выберите HY-Motion-1.0 (~1,0 млрд параметров) для современного уровня точности движения или HY-Motion-1.0-Lite (~0,46 млрд) для более легких развертываний. Репозиторий предоставляет веса и инструкции для быстрой настройки [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion принимает текстовые запросы на простом языке и выводит движения, которые соответствуют предполагаемому действию, стилю и темпу, обеспечивая творческий контроль без ручной анимации каждой позы.
При необходимости подключите модуль оценки продолжительности и перезаписи запросов на основе LLM, чтобы улучшить темп и ясность. Hunyuan Motion предоставляет простые флаги для включения или отключения этих помощников по мере необходимости [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Запускайте пакетные задания через CLI для больших наборов запросов или запустите локальный сервер Gradio для интерактивной визуализации. Эти инструменты поддерживаются в официальном репозитории с четкими инструкциями и примерами на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion работает на macOS, Windows и Linux, помогая смешанным командам обмениваться рабочими процессами. Репозиторий включает требования и скрипты для согласованной настройки и вывода [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Создавая движения на основе скелета, Hunyuan Motion вписывается в конвейеры оснащенных персонажей и поддерживает последующую перенастройку, смешивание и очистку с использованием знакомых цепочек инструментов DCC.
От запроса до скелетной анимации
Пользователь пишет запрос на естественном языке, описывающий желаемое действие, стиль и темп. Hunyuan Motion может дополнительно использовать модуль перезаписи запросов и оценки продолжительности, чтобы уточнить намерение, определить время и стандартизировать формулировки перед генерацией. Этот шаг увеличивает соответствие между текстовым описанием и результатом движения, особенно для сложных или многоэтапных действий, как задокументировано в официальном репозитории на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion выбирает траектории движения с помощью Diffusion Transformer, обученного с помощью Flow Matching. Модель выводит плавные, временно согласованные 3D-движения на основе скелета, которые соответствуют запросу. Результат можно просмотреть в интерактивном режиме в приложении Gradio или сохранить через CLI для интеграции в ваш 3D-конвейер. Полные инструкции по использованию приведены на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
От предварительной визуализации до финальной анимации
Используйте Hunyuan Motion для быстрой генерации движений бега, прыжков, атак, эмоций и перемещений для прототипирования игрового процесса и итерации по ощущениям персонажа. Дизайнеры могут тестировать варианты запросов и быстро экспортировать движения на основе скелета для перенастройки на внутриигровые оснастки. Для больших библиотек CLI поддерживает пакетный вывод и согласованное именование выходных данных. Официальный репозиторий показывает рекомендуемый рабочий процесс и флаги на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
В кинематографических конвейерах Hunyuan Motion ускоряет превизуализацию и блокировку. Режиссеры могут набросать намерение в виде текста, позволить Hunyuan Motion сгенерировать базовое движение и передать его аниматорам для доработки. Плавное поведение, следующее инструкциям, помогает поддерживать жесткие и предсказуемые изменения между кадрами.
Соедините Hunyuan Motion с цифровыми людьми для синтеза выразительных жестов, циклов простоя и стилизованных действий. Поскольку Hunyuan Motion основан на запросах, нетехнические создатели могут быстрее исследовать идеи движения и сотрудничать с техническими директорами для полировки и доставки.
Hunyuan Motion поддерживает быстрое создание фоновых движений толпы, управляемых взаимодействий и повествовательных битов, которые усиливают погружение. Выходы на основе скелета упрощают перенастройку анимации на оснастки, оптимизированные для гарнитуры, и ограничения времени выполнения.
Преподаватели и исследователи могут использовать Hunyuan Motion в качестве эталона для подходов Diffusion Transformer и Flow Matching к движению. Код проекта с открытым исходным кодом и model zoo позволяют проводить воспроизводимые эксперименты и эталонные тесты следования инструкциям [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
При создании согласованной библиотеки движений в домашнем стиле Hunyuan Motion предоставляет согласованную основу. Команды могут указывать тон, темп и стиль в тексте, генерировать согласованные дубли и стандартизировать проверку через приложение Gradio перед добавлением в управление активами.
Все, что вам нужно знать, чтобы начать генерировать с помощью Hunyuan Motion
Hunyuan Motion генерирует 3D-движения человека на основе скелета из текстовых запросов, предназначенные для интеграции в общие конвейеры 3D-анимации. Модель фокусируется на реализме, временной плавности и следовании инструкциям, чтобы действия, стили и темп отражали то, что вы описываете. См. обзор проекта и примеры на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion использует трехэтапный процесс: масштабное предварительное обучение на более чем 3000 часах движения для изучения широких априорных знаний, тонкая настройка на 400 часах тщательно отобранных высококачественных данных для детализации и плавности, а также обучение с подкреплением с обратной связью от человека для дальнейшего уточнения соответствия инструкциям и естественности. Техническое резюме и примечания к обучению находятся в официальном репозитории на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Обе модели являются частью Hunyuan Motion. HY-Motion-1.0 — это стандартная модель с ~1,0 млрд параметров, которая максимизирует следование инструкциям и точность движения, а HY-Motion-1.0-Lite (~0,46 млрд) оптимизирована для более легких развертываний и более быстрого оборота. Выбирайте в зависимости от вашего бюджета GPU и потребностей в качестве движения. Руководство по загрузке модели приведено на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Установите PyTorch и требования проекта, загрузите предварительно обученные веса, следуя инструкциям репозитория, затем выберите предпочтительный интерфейс: используйте CLI для пакетных запросов или запустите приложение Gradio для интерактивного пользовательского интерфейса. Пошаговое руководство по быстрому запуску подробно описано на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Да. Hunyuan Motion может дополнительно использовать модуль оценки продолжительности и перезаписи запросов для улучшения темпа и ясности. Вы можете включить или отключить эти модули с помощью простых флагов. Если они недоступны, вы можете явно отключить их, чтобы избежать ошибок подключения, как описано в примечаниях по использованию репозитория на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Hunyuan Motion поддерживает macOS, Windows и Linux для вывода. Инструкции по установке, списки зависимостей и инструменты для CLI и Gradio доступны на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Да. Проект включает приложение Gradio, которое вы можете запустить локально для интерактивной визуализации. Официальный репозиторий также указывает на Hugging Face Space и официальный сайт для опробования модели. Найдите ссылки и настройки на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Поскольку Hunyuan Motion создает движения на основе скелета, их можно перенастроить на ваши оснастки, смешать с существующими клипами и пропустить через ваши инструменты DCC для полировки. CLI подходит для пакетных заданий, а приложение Gradio поддерживает творческое исследование и проверку перед импортом. Узнайте больше на [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).
Превратите запросы в готовую к производству скелетную анимацию уже сегодня. Следуйте краткому руководству в официальном репозитории, запустите приложение Gradio для мгновенной визуализации и быстро итерируйте с помощью CLI для пакетной генерации движения. Все, что вам нужно для локального развертывания Hunyuan Motion, включая зависимости, контрольные точки и примечания по использованию, доступно на github.com.
Изучите другие AI-модели от того же провайдера
Превратите свои идеи и изображения в потрясающие, готовые к производству 3D-ресурсы с помощью революционной технологии Hunyuan 3D от Tencent. Благодаря передовым моделям диффузии, профессиональному синтезу текстур и бесшовной интеграции рабочих процессов для разработки игр, дизайна продуктов и цифрового искусства.
Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.
Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.
Преобразуйте текст и изображения в высококачественные 3D-модели. Раскройте свой творческий потенциал.
Воплотите портреты в жизнь. Создавайте выразительные видеоролики с говорящей головой из одного изображения и аудио.
Hunyuan Custom — это передовое мультимодальное решение Tencent для генерации видео, которое позволяет пользователям создавать персонализированные видео с согласованными объектами с помощью ИИ. Загрузите изображение, введите текстовый запрос или добавьте аудио/видео входные данные, чтобы за секунды сгенерировать контент кинематографического качества.