Story321.com
Story321.com
الرئيسيةBlogالأسعار
Create
ImageVideo
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
الرئيسية
Image
Text to ImageImage to Image
Video
Text to VideoImage to Video
WritingBlogالأسعار
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia
الرئيسيةفيديوصورةثلاثي الأبعادكتابة
Story321.com

Story321.com هو الذكاء الاصطناعي للقصص للكتاب ورواة القصص لإنشاء ومشاركة قصصهم وكتبهم ونصوصهم وبودكاستاتهم ومقاطع الفيديو الخاصة بهم والمزيد بمساعدة الذكاء الاصطناعي.

تابعنا
X
Products
✍️Writing

إنشاء النصوص

🖼️Image

إنشاء الصور

🎬Video

إنشاء الفيديو

Resources
  • AI Tools
  • Features
  • Models
  • Blog
شركة
  • معلومات عنا
  • الأسعار
  • شروط الخدمة
  • سياسة الخصوصية
  • سياسة الاسترجاع
  • إخلاء المسؤولية
Story321.com

Story321.com هو الذكاء الاصطناعي للقصص للكتاب ورواة القصص لإنشاء ومشاركة قصصهم وكتبهم ونصوصهم وبودكاستاتهم ومقاطع الفيديو الخاصة بهم والمزيد بمساعدة الذكاء الاصطناعي.

Products
✍️Writing

إنشاء النصوص

🖼️Image

إنشاء الصور

🎬Video

إنشاء الفيديو

Resources
  • AI Tools
  • Features
  • Models
  • Blog
شركة
  • معلومات عنا
  • الأسعار
  • شروط الخدمة
  • سياسة الخصوصية
  • سياسة الاسترجاع
  • إخلاء المسؤولية
تابعنا
X
EnglishFrançaisDeutsch日本語한국인简体中文繁體中文ItalianoPolskiTürkçeNederlandsArabicespañolPortuguêsРусскийภาษาไทยDanskNorsk bokmålBahasa Indonesia

© 2025 Story321.com. جميع الحقوق محفوظة

Made with ❤️ for writers and storytellers
    1. الرئيسية
    2. نماذج الذكاء الاصطناعي
    3. Tencent Hunyuan AI
    4. Hunyuan Motion

    Hunyuan Motion 1.0 — إنشاء حركة بشرية ثلاثية الأبعاد من النص على نطاق واسع

    يجلب Hunyuan Motion اللغة الطبيعية إلى الحياة من خلال رسوم متحركة ثلاثية الأبعاد عالية الدقة تعتمد على الهيكل العظمي

    Hunyuan Motion هي مجموعة نماذج الجيل التالي لإنشاء حركة بشرية ثلاثية الأبعاد من النص، والتي تحول مطالبات اللغة الإنجليزية العادية إلى رسوم متحركة سلسة وواقعية تعتمد على الهيكل العظمي. مدعومًا بمحول انتشار بمليار معلمة تم تدريبه باستخدام Flow Matching، يقوم Hunyuan Motion بتوسيع نطاق اتباع التعليمات وتفاصيل الحركة والنعومة الزمنية إلى مستوى جديد. يوفر المشروع CLI جاهزًا للاستخدام وتطبيق Gradio تفاعليًا للتكرارات السريعة وسير العمل القابلة للتكرار والتوافق عبر الأنظمة الأساسية. مع التدريب المسبق على نطاق واسع، والضبط الدقيق عالي الجودة، والتعلم المعزز من ردود الفعل البشرية، يحقق Hunyuan Motion جودة وموثوقية فائقة لألعاب الفيديو والأفلام والواقع الافتراضي/المعزز والإنتاج الافتراضي وخطوط إنتاج الإنسان الرقمي. استكشف التنفيذ الرسمي مفتوح المصدر والأوزان المدربة مسبقًا وأدوات البدء السريع على github.com.

    تحويل النص إلى حركة
    رسوم متحركة ثلاثية الأبعاد
    Hunyuan Motion

    ما هو Hunyuan Motion؟

    Hunyuan Motion هي سلسلة من نماذج إنشاء حركة بشرية ثلاثية الأبعاد من النص والتي تنتج رسومًا متحركة للشخصيات تعتمد على الهيكل العظمي مباشرةً من مطالبات اللغة الطبيعية. استنادًا إلى محول الانتشار وتدريبه باستخدام Flow Matching، يتوسع Hunyuan Motion إلى مستوى المليار معلمة لتحسين اتباع التعليمات وجودة الحركة بشكل كبير مقارنةً بالأنظمة مفتوحة المصدر السابقة. يجمع خط أنابيب التدريب بين ثلاث مراحل - التدريب المسبق المكثف على حركة بشرية متنوعة، والضبط الدقيق على تسلسلات عالية الجودة منسقة، والتعلم المعزز مع ردود الفعل البشرية - لتقديم حركة سلسة ومقبولة جسديًا تتماشى مع التوجيهات النصية التفصيلية. والنتيجة هي سير عمل من المطالبة إلى الرسوم المتحركة يتكامل بسلاسة في خطوط إنتاج ثلاثية الأبعاد الحديثة. يأتي المشروع مع نموذج قياسي (≈1.0 مليار معلمة) ومتغير Lite (≈0.46 مليار معلمة) لأغلفة أداء مختلفة، جنبًا إلى جنب مع دعم عبر الأنظمة الأساسية، وCLI صديق للدُفعات، وواجهة مستخدم Gradio سهلة للاستكشاف التفاعلي. تتوفر التفاصيل الكاملة والتحديثات وتعليمات الاستخدام في المستودع الرسمي على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    محول انتشار مع Flow Matching تم توسيعه إلى ~1 مليار معلمة لتحسين اتباع التعليمات وجودة الحركة [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    تدريب ثلاثي المراحل: تدريب مسبق على نطاق واسع، وضبط دقيق عالي الجودة، وRLHF لحركة طبيعية ومتماسكة [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    CLI جاهز للاستخدام وتطبيق Gradio للاستدلال المحلي السريع والتصور التفاعلي [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0)

    Flow Matching

    الميزات الرئيسية

    ما الذي يجعل Hunyuan Motion مختلفًا

    محول انتشار + Flow Matching على نطاق المليار

    يقوم Hunyuan Motion بتوسيع نطاق العمود الفقري DiT مع Flow Matching إلى ~1.0 مليار معلمة، مما يعزز اتباع التعليمات وجودة الحركة مع الحفاظ على الاستقرار عبر الإطارات. راجع وصف النموذج الرسمي ونظرة عامة على التدريب على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    خط أنابيب التدريب ثلاثي المراحل

    يبني التدريب المسبق على نطاق واسع على أكثر من 3000 ساعة من بيانات الحركة أولويات واسعة؛ يعزز الضبط الدقيق المنسق لمدة 400 ساعة التفاصيل والنعومة؛ يعمل RL من ردود الفعل البشرية على تحسين الطبيعة والالتزام بالمطالبة. التفاصيل موثقة على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    حديقة الحيوان النموذجية: قياسي وخفيف

    اختر HY-Motion-1.0 (~1.0 مليار معلمة) للحصول على دقة حركة فائقة أو HY-Motion-1.0-Lite (~0.46 مليار) لعمليات نشر أخف. يوفر المستودع الأوزان والتعليمات للإعداد السريع [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    إنشاء حركة أولاً بالنص

    يأخذ Hunyuan Motion مطالبات باللغة العادية وينتج حركة تتماشى مع الإجراء المقصود والأسلوب والوتيرة، مما يتيح التحكم الإبداعي دون تحريك كل وضعية يدويًا.

    هندسة المطالبات وتقدير المدة

    يمكنك اختياريًا توصيل وحدة تقدير المدة وإعادة كتابة المطالبات المستندة إلى LLM لتحسين الوتيرة والوضوح. يعرض Hunyuan Motion علامات بسيطة لتمكين أو تعطيل هذه المساعدات حسب الحاجة [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    CLI وGradio مضمنان

    قم بتشغيل مهام الدُفعات عبر CLI لمجموعات المطالبات الكبيرة أو قم بتشغيل خادم Gradio محلي للتصور التفاعلي. تتم صيانة هذه الأدوات في المستودع الرسمي مع تعليمات وأمثلة واضحة على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    دعم عبر الأنظمة الأساسية

    يعمل Hunyuan Motion على أنظمة macOS وWindows وLinux، مما يساعد الفرق المختلطة على مشاركة سير العمل. يتضمن المستودع المتطلبات والنصوص البرمجية للإعداد والاستدلال المتسقين [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    مخرجات صديقة للإنتاج

    من خلال إنشاء حركة تعتمد على الهيكل العظمي، يتناسب Hunyuan Motion مع خطوط إنتاج الشخصيات المجهزة ويدعم إعادة الاستهداف والمزج والتنظيف باستخدام سلاسل أدوات DCC المألوفة.

    كيف يعمل Hunyuan Motion

    من المطالبة إلى الرسوم المتحركة للهيكل العظمي

    1

    تحليل التعليمات وتخطيط المدة

    يكتب المستخدم مطالبة باللغة الطبيعية تصف الإجراء والأسلوب والوتيرة المطلوبة. يمكن لـ Hunyuan Motion اختياريًا استخدام وحدة إعادة كتابة المطالبات وتقدير المدة لتوضيح النية واستنتاج التوقيت وتوحيد العبارات قبل الإنشاء. تزيد هذه الخطوة من التوافق بين الوصف النصي ونتيجة الحركة، خاصةً في الإجراءات المعقدة أو متعددة الخطوات كما هو موثق في المستودع الرسمي على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    2

    أخذ عينات DiT المطابقة للتدفق وتجميع الهيكل العظمي

    يقوم Hunyuan Motion بأخذ عينات من مسارات الحركة باستخدام محول انتشار تم تدريبه عبر Flow Matching. ينتج النموذج حركة ثلاثية الأبعاد سلسة ومتماسكة زمنيًا تعتمد على الهيكل العظمي وتلتزم بالمطالبة. يمكن عرض النتيجة بشكل تفاعلي في تطبيق Gradio أو حفظها عبر CLI للتكامل في خط إنتاج ثلاثي الأبعاد الخاص بك. يتم توفير تعليمات الاستخدام الكاملة على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    أين تستخدم Hunyuan Motion

    من التصور المسبق إلى الرسوم المتحركة النهائية

    تطوير الألعاب والنماذج الأولية

    استخدم Hunyuan Motion لإنشاء حركات الركض والقفز والهجوم والتعبير والتجول بسرعة لإنشاء نماذج أولية للعب وتكرار إحساس الشخصية. يمكن للمصممين اختبار اختلافات المطالبات وتصدير الحركة القائمة على الهيكل العظمي بسرعة لإعادة استهدافها إلى منصات داخل اللعبة. بالنسبة للمكتبات الأكبر حجمًا، يدعم CLI الاستدلال الدفعي وتسمية الإخراج المتسقة. يعرض المستودع الرسمي سير العمل والعلامات الموصى بها على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    الأفلام والمؤثرات البصرية والإنتاج الافتراضي

    في خطوط الإنتاج السينمائية، يسرع Hunyuan Motion التصور المسبق والحظر. يمكن للمخرجين رسم النية كنص، والسماح لـ Hunyuan Motion بإنشاء حركة أساسية، وتسليمها إلى الرسوم المتحركة لتحسينها. يساعد السلوك السلس الذي يتبع التعليمات في الحفاظ على المراجعات ضيقة ويمكن التنبؤ بها عبر اللقطات.

    البشر الرقميون والمؤثرون الافتراضيون

    قم بإقران Hunyuan Motion بالبشر الرقميين لتجميع الإيماءات التعبيرية والحلقات الخاملة والأفعال المنمقة. نظرًا لأن Hunyuan Motion يعتمد على المطالبات، يمكن للمبدعين غير التقنيين استكشاف أفكار الحركة بشكل أسرع والتعاون مع المخرجين التقنيين لتحقيق اللمسات النهائية والتسليم.

    الواقع الافتراضي/المعزز والتجارب الغامرة

    يدعم Hunyuan Motion الإنشاء السريع لحركة الحشود المحيطة والتفاعلات الموجهة والإيقاعات السردية التي تعزز الانغماس. تجعل المخرجات القائمة على الهيكل العظمي من السهل إعادة استهداف الرسوم المتحركة إلى منصات محسّنة لسماعات الرأس وقيود وقت التشغيل.

    التعليم والبحث والمختبرات

    يمكن للمعلمين والباحثين استخدام Hunyuan Motion كمرجع لأساليب محول الانتشار وFlow Matching للحركة. يتيح كود المشروع مفتوح المصدر وحديقة الحيوان النموذجية إجراء تجارب قابلة للتكرار ومعايير اتباع التعليمات [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    الاستوديوهات التي تبني مكتبات حركة داخلية

    عند بناء مكتبة متسقة من حركات نمط المنزل، يوفر Hunyuan Motion قاعدة متماسكة. يمكن للفرق تحديد النغمة والوتيرة والأسلوب في النص، وإنشاء لقطات متسقة، وتوحيد المراجعة عبر تطبيق Gradio قبل إدخالها في إدارة الأصول.

    الأسئلة المتداولة

    كل ما تحتاج إلى معرفته لبدء الإنشاء باستخدام Hunyuan Motion

    ما الذي ينشئه Hunyuan Motion بالضبط؟

    ينشئ Hunyuan Motion حركة بشرية ثلاثية الأبعاد تعتمد على الهيكل العظمي من مطالبات نصية، مصممة للتكامل في خطوط إنتاج الرسوم المتحركة ثلاثية الأبعاد الشائعة. يركز النموذج على الواقعية والنعومة الزمنية واتباع التعليمات بحيث تعكس الإجراءات والأنماط والوتيرة ما تصفه. راجع نظرة عامة على المشروع وأمثلة على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    كيف يتم تدريب Hunyuan Motion؟

    يستخدم Hunyuan Motion عملية ثلاثية المراحل: تدريب مسبق على نطاق واسع على أكثر من 3000 ساعة من الحركة لتعلم الأولويات الواسعة، والضبط الدقيق على 400 ساعة من البيانات عالية الجودة المنسقة للحصول على التفاصيل والنعومة، والتعلم المعزز مع ردود الفعل البشرية لزيادة تحسين توافق التعليمات والطبيعة. الملخص الفني وملاحظات التدريب موجودة في المستودع الرسمي على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ما هو الفرق بين HY-Motion-1.0 وHY-Motion-1.0-Lite؟

    كلاهما جزء من Hunyuan Motion. HY-Motion-1.0 هو النموذج القياسي الذي يبلغ ~1.0 مليار معلمة والذي يزيد من اتباع التعليمات ودقة الحركة، بينما HY-Motion-1.0-Lite (~0.46 مليار) مُحسَّن لعمليات النشر الأخف وزناً والتحول الأسرع. اختر بناءً على ميزانية وحدة معالجة الرسومات الخاصة بك واحتياجات جودة الحركة. يتم توفير إرشادات تنزيل النموذج على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    كيف يمكنني تشغيل Hunyuan Motion محليًا؟

    قم بتثبيت PyTorch ومتطلبات المشروع، وقم بتنزيل الأوزان المدربة مسبقًا باتباع تعليمات المستودع، ثم اختر واجهتك المفضلة: استخدم CLI لمطالبات الدُفعات أو قم بتشغيل تطبيق Gradio لواجهة مستخدم تفاعلية. يتم تفصيل بداية سريعة خطوة بخطوة على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    هل يمكن لـ Hunyuan Motion تقدير المدة وإعادة كتابة المطالبات تلقائيًا؟

    نعم. يمكن لـ Hunyuan Motion اختياريًا استخدام وحدة تقدير المدة وإعادة كتابة المطالبات لتحسين الوتيرة والوضوح. يمكنك تمكين أو تعطيل هذه الوحدات عبر علامات بسيطة. إذا لم تكن متوفرة، يمكنك إيقاف تشغيلها صراحةً لتجنب أخطاء الاتصال، كما هو موضح في ملاحظات استخدام المستودع على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ما هي أنظمة التشغيل التي يدعمها Hunyuan Motion؟

    يدعم Hunyuan Motion أنظمة macOS وWindows وLinux للاستدلال. تتوفر تعليمات التثبيت وقوائم التبعيات والأدوات لكل من CLI وGradio على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    هل هناك عرض توضيحي تفاعلي؟

    نعم. يتضمن المشروع تطبيق Gradio يمكنك تشغيله محليًا للتصور التفاعلي. يشير المستودع الرسمي أيضًا إلى مساحة Hugging Face وموقع رسمي لتجربة النموذج. ابحث عن الروابط والإعداد على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    كيف يمكنني دمج مخرجات Hunyuan Motion في خط الإنتاج الخاص بي؟

    نظرًا لأن Hunyuan Motion ينتج حركة تعتمد على الهيكل العظمي، فيمكن إعادة استهدافها إلى منصاتك، ودمجها مع المقاطع الحالية، وتمريرها عبر أدوات DCC الخاصة بك للتلميع. يعتبر CLI مناسبًا لمهام الدُفعات، بينما يدعم تطبيق Gradio الاستكشاف الإبداعي والمراجعة قبل الاستيراد. تعرف على المزيد على [github.com](https://github.com/Tencent-Hunyuan/HY-Motion-1.0).

    ابدأ الإنشاء باستخدام Hunyuan Motion

    حوّل المطالبات إلى رسوم متحركة للهيكل العظمي جاهزة للإنتاج اليوم. اتبع البداية السريعة في المستودع الرسمي، وقم بتشغيل تطبيق Gradio للتصور الفوري، وكرر بسرعة باستخدام CLI لإنشاء حركة الدُفعات. كل ما تحتاجه لنشر Hunyuan Motion محليًا - بما في ذلك التبعيات ونقاط التفتيش وملاحظات الاستخدام - متاح على github.com.

    نماذج ذات صلة

    اكتشف المزيد من نماذج الذكاء الاصطناعي من نفس المزود

    Hunyuan 3D

    حوّل أفكارك وصورك إلى أصول ثلاثية الأبعاد مذهلة وجاهزة للإنتاج باستخدام Hunyuan 3D الثوري من Tencent. يتميز بنماذج انتشار متقدمة وتجميع نسيج احترافي وتكامل سلس لسير العمل لتطوير الألعاب وتصميم المنتجات والفن الرقمي.

    اعرف المزيد

    Hunyuan Image

    Hunyuan Image 3.0 transforms your ideas into stunning, photorealistic images with unprecedented prompt adherence and intelligent reasoning. Powered by 80B parameters and 64 experts MoE architecture, it delivers exceptional semantic accuracy and visual excellence. Experience the future of AI image generation with native multimodal understanding.

    اعرف المزيد

    Hunyuan Video Generator

    Hunyuan Video transforms your text descriptions into stunning, high-quality videos with exceptional physical accuracy and temporal consistency. Powered by a 13B parameter Unified Diffusion Transformer architecture, it generates up to 5-second videos at 720p resolution with superior motion dynamics and visual fidelity. Experience the future of video creation with advanced Flow Matching schedulers and parallel inference capabilities.

    اعرف المزيد

    إنشاء أصول ثلاثية الأبعاد مذهلة بسهولة مع عالم Hunyuan

    حوّل النصوص والصور إلى نماذج ثلاثية الأبعاد عالية الجودة. أطلق العنان لإمكاناتك الإبداعية.

    اعرف المزيد

    إنشاء صور رمزية فيديو نابضة بالحياة باستخدام Hunyuan Video Avatar

    اجعل الصور تنبض بالحياة. قم بإنشاء مقاطع فيديو معبرة للرأس المتحدث من صورة واحدة وصوت.

    اعرف المزيد

    هون يوان كاستم - أداة الجيل التالي للذكاء الاصطناعي متعدد الوسائط لإنشاء الفيديو

    Hunyuan Custom هو حل Tencent المتطور لتوليد الفيديو متعدد الوسائط والذي يتيح للمستخدمين إنشاء مقاطع فيديو مخصصة ومتسقة الموضوع باستخدام الذكاء الاصطناعي. قم بتحميل صورة، أو اكتب مطالبة، أو أضف مدخلات صوتية/مرئية لإنشاء محتوى بجودة سينمائية في ثوانٍ.

    اعرف المزيد
    عرض جميع النماذج