ميتا تكشف عن Movie Gen نموذج الذكاء الاصطناعي لتوليد فيديوهات عالية الدقة بالصوت
أعلنت شركة ميتا عن إطلاق نموذج Movie Gen، الذي يعتمد على الذكاء الاصطناعي لتوليد مقاطع فيديو عالية الدقة مصحوبة بالصوت. يأتي هذا الإعلان بعد أشهر من كشف OpenAI عن نموذج مشابه يُدعى Sora.
يعتمد Movie Gen على مدخلات نصية لتوليد مقاطع فيديو جديدة تلقائيًا أو تعديل اللقطات والصور الثابتة، وفقًا لتقرير نشرته صحيفة نيويورك تايمز. بالإضافة إلى الفيديو، يتم توليد الأصوات أيضًا بالذكاء الاصطناعي، بما يشمل الضوضاء، المؤثرات الصوتية، والموسيقى الخلفية المناسبة للمشهد. يتميز النموذج بقدرته على إنتاج مقاطع بأبعاد متنوعة.
إلى جانب إنشاء مقاطع فيديو جديدة، يمكن للنموذج تخصيص مقاطع من الصور أو تعديل مقاطع الفيديو الحالية عبر تغيير عناصر متعددة. على سبيل المثال، قدمت ميتا صورة ثابتة لرجل، واستطاع النموذج تحويلها إلى مقطع فيديو يظهره داخل معمل يجري تجربة كيميائية، مع أمثلة متنوعة أخرى.
Movie Gen يتيح أيضًا تحرير المقاطع الحالية بإضافة عناصر جديدة أو تعديل الأسلوب والتنقلات. في مثال آخر، تم استخدام أوامر نصية لتغيير خلفية مشهد عدّاء أو مظهره بشكل كامل. ميتا عرضت أمثلة أخرى لتحرير مقاطع الفيديو باستخدام الذكاء الاصطناعي.
رغم هذه التطورات، أوضح كريس كوكس، مدير المنتجات في ميتا، أن الأداة ليست جاهزة للاستخدام التجاري بعدُ، مشيرًا إلى أن التكاليف المرتفعة والمدة الزمنية لتوليد الفيديوهات تشكل تحديات كبيرة.
على الرغم من إعلان OpenAI عن نموذج Sora في بداية العام الجاري، إلا أن الأداة المعتمدة عليه لم تُطرح بعدُ للاستخدام العام. كما استقال مؤخرًا أحد القائمين على تطوير النموذج من OpenAI وانتقل إلى جوجل.
تجدر الإشارة إلى أن أدوات توليد الفيديوهات بالذكاء الاصطناعي تثير مخاوف متعلقة بالملكية والاستخدامات غير المشروعة. فهناك تقارير تشير إلى أن بعض الشركات تدرب نماذجها باستخدام آلاف مقاطع الفيديو المستخرجة من يوتيوب، وهو ما يعد انتهاكًا لشروط الاستخدام وفقًا لتصريحات الرئيس التنفيذي ليوتيوب، نيل موهان.
وأكدت ميتا أن تدريب نموذج Movie Gen تم باستخدام مزيج من البيانات المرخصة والمتاحة للجمهور، دون تحديد مصادر هذه البيانات بشكل دقيق.