DeepSeek AI تُطلق نموذج DeepSeek-V3: ثورة في مجال الذكاء الاصطناعي المفتوح المصدر

أعلنت شركة DeepSeek AI الصينية، الرائدة في مجال الذكاء الاصطناعي، عن إطلاق نموذجها الجديد DeepSeek-V3، الذي يُصنّف ضمن أقوى النماذج المفتوحة المصدر عالميًا. يعتمد النموذج على تقنية مبتكرة تُعرف باسم “Mixture-of-Experts” (MoE)، ويحتوي على 671 مليار مَعلَمة مع تفعيل 37 مليار مَعلَمة لكل إدخال نصي، مما يعزز كفاءته وقوته.

وفقًا لاختبارات الأداء القياسية، تفوق DeepSeek-V3 على نماذج مغلقة المصدر شهيرة، مثل GPT-4o من OpenAI وClaude 3.5 من Anthropic، وحقق نتائج رائدة في 9 معايير أداء رئيسية.

كفاءة عالية وتكاليف منخفضة

احتاج النموذج إلى 2.788 مليون ساعة تدريب باستخدام وحدات معالجة الرسوميات H800، بتكلفة قُدّرت بحوالي 5.6 ملايين دولار. بالمقارنة، يتطلب نموذج Llama 3 من Meta (405 مليارات مَعلَمة) حوالي 30.8 مليون ساعة تدريب، وهو ما يُبرز تفوق DeepSeek-V3 من حيث خفض التكلفة، بفضل تحسينات تقنية وهندسية متطورة. كما يتميز النموذج بكفاءة تشغيلية استثنائية، حيث تقل تكلفة إدخال النصوص فيه بعشر مرات مقارنة بالنماذج الرائدة الأخرى.

خطوة نحو تقليص الفجوة

في بيان عبر منصة إكس (Twitter سابقًا)، أعرب فريق DeepSeek AI عن تفاؤله بالنموذج الجديد، مؤكدين أنه يمثل نقلة نوعية في تقليص الفجوة بين النماذج المفتوحة والمغلقة. ويُتاح DeepSeek-V3 للتنزيل عبر منصتي GitHub وHuggingFace، مما يُتيح للمطورين والعلماء حول العالم الوصول إلى تقنيات ذكاء اصطناعي متقدمة بأسعار معقولة.

يُعد هذا الإصدار علامة فارقة نحو جعل تقنيات الذكاء الاصطناعي المتطورة متاحة على نطاق عالمي، بعيدًا عن الاحتكار من قبل شركات أو جهات بعينها

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى