ميتا تطلق نظام ذكاء اصطناعي شامل لتعرّف الكلام يدعم أكثر من 1600 لغة

أعلنت شركة ميتا عن إطلاق نظامها الجديد لتعرّف الكلام آليًا (ASR) تحت اسم Omnilingual ASR، وهو نظام مفتوح المصدر يُعدّ الأكثر شمولًا في العالم، بدعمٍ يتجاوز 1600 لغة، مع قدرة مستقبلية على التوسّع لتغطية أكثر من 5400 لغة بفضل تقنية “التعلّم داخل السياق دون تدريب مسبق”.

 

ويمتاز النظام بقدرته على إضافة لغات جديدة باستخدام عدد محدود من الأمثلة الصوتية والنصية فقط، دون الحاجة إلى إعادة تدريب النموذج، ما يجعله من أكثر أنظمة تعرّف الكلام قابلية للتوسّع حتى الآن.

 

إطلاق مفتوح المصدر دون قيود

 

أكدت ميتا أن جميع موارد Omnilingual ASR متاحة مجانًا تحت ترخيص Apache 2.0 المفتوح، مما يتيح استخدامه في الأبحاث والمشروعات التجارية بلا أي قيود. وتشمل الحزمة مجموعة من النماذج اللغوية المتقدمة، ونموذجًا صوتيًا متعدد اللغات يحتوي على 7 مليارات معلمة، إضافة إلى قاعدة بيانات ضخمة تغطي أكثر من 350 لغة نادرة.

 

تكنولوجيا متقدمة وأداء متميّز

 

تضم الحزمة مجموعة من النماذج المتطورة، أبرزها:

 

نماذج wav2vec 2.0 للتعلّم الذاتي من الصوتيات (من 300 مليون حتى 7 مليارات معلمة).

 

نماذج CTC-ASR للتفريغ السريع والدقيق.

 

نماذج LLM-ASR التي تدمج مشفّرًا صوتيًا مع مولّد نصي يعمل بتقنية Transformers.

 

نموذج ZeroShot-ASR القادر على التعرّف إلى لغات جديدة أثناء التشغيل دون تدريب إضافي.

 

وأظهرت اختبارات الأداء أن النظام يحقق معدل خطأ في الحروف (CER) أقل من 10% في نحو 78% من اللغات المدعومة، بما في ذلك أكثر من 500 لغة لم يسبق لأي نموذج آخر تغطيتها.

 

تحوّل إستراتيجي بعد إخفاق Llama 4

 

يأتي إطلاق النظام في إطار إستراتيجية جديدة داخل ميتا عقب الأداء الضعيف لنموذج Llama 4 العام الماضي. وبعد هذه التجربة، عيّن الرئيس التنفيذي مارك زوكربيرج الخبير التقني ألكسندر وانغ، مؤسس شركة Scale AI، رئيسًا لقسم الذكاء الاصطناعي لقيادة مرحلة تركز على النماذج العملية والمفتوحة المصدر.

 

ويُعد Omnilingual ASR خطوة محورية تعيد ميتا إلى أحد مجالات تميّزها التاريخية، وهو الذكاء الاصطناعي متعدد اللغات، كما تعكس التزام الشركة بتعزيز الابتكار المجتمعي، وتقديم أدوات مجانية وشفافة تُسهم في حماية التنوع اللغوي عالميًا.

 

تعاون مجتمعي لتوسيع قاعدة البيانات

 

اعتمدت ميتا في بناء قاعدة بيانات النظام على شراكات بحثية مع جامعات ومبادرات في أفريقيا وآسيا، مثل African Next Voices المدعومة من مؤسسة بيل ومليندا غيتس، ومشروع Common Voice من موزيلا، إلى جانب منظمة Lanfrica / NaijaVoices التي أسهمت بجمع بيانات لـ 11 لغة أفريقية نادرة.

 

وجرى تسجيل البيانات بأصوات متحدثين محليين مقابل أجر مادي، مع التركيز على الحوارات الطبيعية لضمان دقة التمثيل اللغوي والثقافي.

 

ويعمل أكبر نماذج النظام (omniASR_LLM_7B) على نحو 17 جيجابايت من ذاكرة GPU، بينما يمكن للنماذج الأصغر العمل على أجهزة متوسطة بفاعلية عالية وأداء شبه فوري، حتى في البيئات الصاخبة أو اللغات منخفضة الموارد.

 

انفتاح كامل للمطورين والشركات

 

تتيح ميتا للمطورين تنزيل النماذج والبيانات عبر GitHub وHugging Face، مع توفير واجهات برمجية مرنة تُمكّن من دمج النظام في التطبيقات التجارية.

 

ويُتوقع أن يُحدث Omnilingual ASR نقلة نوعية في تطبيقات مثل المساعدات الصوتية الذكية، والتفريغ النصي للمحتوى الصوتي والفيديو، والترجمة الفورية، ودعم اللغات المهددة بالانقراض، ما يفتح آفاقًا جديدة للشركات في مجالات التعليم، وخدمات العملاء، والتقنيات المساعدة.

 

وبهذا الإطلاق، لا تقدم ميتا مجرد إنجاز تقني غير مسبوق، بل ترسم رؤية جديدة لمستقبل الذكاء الاصطناعي الصوتي تقوم على الانفتاح، والمشاركة المجتمعية، ودعم جميع لغات العالم تقريبًا، في خطوة قد تُعيد رسم خريطة الذكاء الاصطناعي اللغوي عالميًا.

التعليق بواسطة حساب الفيسبوك
Exit mobile version