تريند 🔥

🤖 AI

شركة RunwayML تطلق نموذج Gen-3 Alpha لإنتاج فيديوهات فائقة الواقعية!

منة الله سيد أحمد
منة الله سيد أحمد

3 د

أعلنت شركة RunwayML عن إطلاق نموذجها الجديد Gen-3 Alpha الذي يتيح للمستخدمين إنتاج مقاطع فيديو فائقة الواقعية باستخدام نصوص أو صور أو مقاطع فيديو كنماذج، مع توفره الآن للاستخدام العام.

يتطلب استخدام نموذج Gen-3 Alpha الاشتراك في خطة مدفوعة بأسعار تبدأ من 12 دولارًا شهريًا لكل محرر، على عكس النماذج السابقة التي كانت مجانية.

النموذج يتيح إنتاج مقاطع فيديو تصل مدتها إلى 10 ثوانٍ مع سرعة توليد محسّنة، ويتوقع أن يتم توسيع قدراته لتشمل أوضاع أخرى في المستقبل.

أعلنت شركة RunwayML، إحدى أولى الشركات الناشئة التي تبنت مهمة تدريب الذكاء الاصطناعي لتوليد الفيديو، اليوم أن نموذجها الأخير Gen-3 Alpha قد تم طرحه للاستخدام العام.

تم الإعلان عن Gen-3 Alpha لأول مرة قبل بضعة أسابيع، وهو يسمح للمستخدمين بإنتاج مقاطع فيديو فائقة الواقعية باستخدام نصوص أو صور أو مقاطع فيديو كنماذج. ومع بدء الوصول الواسع اليوم، يمكن لأي شخص مسجل على منصة RunwayML استخدام الأجيال ذات الدقة العالية والتحكم في النموذج لتلبية مجموعة واسعة من الاستخدامات الإبداعية، بما في ذلك الإعلانات، على غرار ما عرضته OpenAI مع نموذج Sora.

ومع ذلك، هناك ملاحظة هامة: نموذج Gen-3 Alpha ليس مجانيًا مثل نماذج Gen-1 و Gen-2. بل  يجب على المستخدمين الترقية إلى خطة مدفوعة من الشركة، بأسعار تبدأ من 12 دولارًا شهريًا لكل محرر، ويتم دفعها سنويًا.

ما الذي يمكن توقعه من Gen-3 Alpha؟

بعد إطلاق نماذج Gen-1 و Gen-2 في غضون بضعة أشهر العام الماضي، توقفت RunwayML عن إصدار نماذج جديدة وركزت على تحديث ميزات منصتها. خلال هذه الفترة، عرض العديد من المنافسين عروضهم، بما في ذلك Stability AI و OpenAI Pika وأخيرًا Luma Labs. ومع تسارع وتيرة حروب الفيديو بالذكاء الاصطناعي، قررت الشركة العودة الشهر الماضي بنموذج Gen-3 Alpha.

يتيح النموذج، الذي تم تدريبه على مقاطع فيديو وصور مشروحة بتعليقات وصفية للغاية، للمستخدمين إنتاج مقاطع فيديو فائقة الواقعية تتضمن انتقالات خيالية، وتأطير دقيق للعناصر، وشخصيات بشرية تعبر عن مجموعة واسعة من الأفعال والإيماءات والعواطف.


وتُظهر العينات التي شاركتها Runway مدى الترقية الكبيرة التي حققها Gen-3 Alpha مقارنة بنماذج Gen-1 و Gen-2 من حيث السرعة والدقة والاتساق والحركة. وقد قالت الشركة إنها تعاونت مع "فريق متعدد التخصصات من علماء البحث والمهندسين والفنانين" لتطوير هذه القدرات، لكنها لم تشارك الكثير عن المصدر الدقيق لبيانات التدريب.

والآن، مع التوافر الواسع لنموذج Gen-3 Alpha، يمكن للمستخدمين الترقية إلى خطة Runway المدفوعة والبدء في استخدامه لإنتاج مقاطع فيديو لمختلف الاستخدامات الإبداعية. في المرحلة الأولية، تقول Runway إن النموذج سيدعم وضع النص إلى الفيديو، مما يسمح للمستخدمين بإحياء أفكارهم باستخدام الأوامر باللغة الطبيعية. ومع ذلك، من المتوقع أن توسع الشركة استخدام النموذج ليشمل أوضاع أخرى، بما في ذلك الصورة إلى الفيديو والفيديو إلى الفيديو. كما سيتكامل النموذج أيضًا مع ميزات التحكم على منصة Runway مثل Motion Brush وAdvanced Camera Controls  و Director Mode.

ومن جانبها، وصفت Runway هذا النموذج بأنه "الأول في سلسلة من النماذج القادمة" التي تم تدريبها على بنية تحتية جديدة مصممة للتدريب متعدد الأنماط على نطاق واسع، و"خطوة نحو بناء نماذج عالمية عامة" يمكنها "تمثيل ومحاكاة مجموعة واسعة من المواقف والتفاعلات، مثل تلك التي تحدث في العالم الحقيقي".

ذو صلة

ومن الجدير بالذكر أن كل فيديو يتم إنتاجه باستخدام النموذج سيكون مدته القصوى 10 ثوانٍ، مع سرعة التوليد التي تختلف حسب طول الفيديو. ويعد هذا أفضل من معظم نماذج الفيديو بالذكاء الاصطناعي، لكنه أقل من توليدات OpenAI التي تصل إلى دقيقة واحدة والموعودة مع نموذج Sora (الذي لم يتم إصداره بعد).

كما أنه من المهم الإشارة أيضًا إلى أن هذا ليس سوى البداية. فمن المتوقع أن يتحسن نموذج Gen-3 Alpha في الأشهر القادمة، مع إصدار نسخة مجانية من النموذج للمستخدمين في وقت ما.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة