ميتا تطلق نموذج ذكاء اصطناعي يتعلم عبر الفيديوهات

أصدرت شركة ميتا موديلًا جديدًا للذكاء الاصطناعي يُدعى V-JEPA، ويهدف هذا الموديل إلى تعزيز فهم الآلات للعالم من خلال تحليل التفاعلات بين الأشياء في مقاطع الفيديو.

يواصل V-JEPA رؤية يان ليكون، نائب الرئيس ورئيس علماء الذكاء الاصطناعي في الشركة، لإنشاء نموذج ذكاء اصطناعي يتعلم بطريقة تشبه البشر.

شهد الإصدار الخامس من نموذج I-JEPA تطورات في مجال مقارنة التمثيلات المجردة للصور بدلاً من وحدات البكسل وتوسيع نطاق التحليل ليشمل مقاطع الفيديو.

V-JEPA يعمل على تطوير النهج التنبؤي للتعلم من الصور إلى التعلم من مقاطع الفيديو، مما يدرج الديناميكيات الزمنية والمعلومات المكانية.

يتنبأ V-JEPA بالأجزاء المفقودة من الفيديو دون الحاجة لإعادة إنشاء التفاصيل الكاملة، مما يعزز كفاءته ويقلل من استهلاك الموارد.

تطوير النموذج يركز على إخفاء أجزاء كبيرة من مقاطع الفيديو، مما يعزز قدرته على فهم السيناريوهات المعقدة دون الحاجة لبيانات مفصلة.

V-JEPA يركز على الفكرة العامة للفيديو بدلاً من التفاصيل الدقيقة، مما يظهر نتائج واعدة في الاختبارات.

تمثل هذه الكفاءة خطوة إيجابية في مجال الذكاء الاصطناعي، وتمكن استخدام النموذج في مجموعة متنوعة من المهام دون الحاجة لإعادة تدريب واسعة النطاق.

ميتا تخطط لتوسيع قدرات V-JEPA في المستقبل، بما في ذلك تحسين فهمه للصوت والفيديو الطويل.

 

مايكروسوفت تستثمر في الذكاء الاصطناعي في ألمانيا

التعليق بواسطة حساب الفيسبوك
Exit mobile version