المملكة المتحدة تُنشئ منصة لتقييم مخاطر الذكاء الاصطناعي

أصدر معهد سلامة الذكاء الاصطناعي في بريطانيا مجموعة أدوات مصممة لتعزيز سلامة الذكاء الاصطناعي من خلال تسهيل تطوير تقييمات الذكاء الاصطناعي على الصناعة والمنظمات البحثية والأوساط الأكاديمية.

وتهدف مجموعة الأدوات التي يطلق عليها “Inspect” إلى تقييم قدرات معينة لنماذج الذكاء الاصطناعي، وتشمل ذلك المعرفة الأساسية للنماذج والقدرة على التفكير، وإنشاء درجات بناءً على النتائج.

تتوفر مجموعة الأدوات بموجب ترخيص مفتوح المصدر، وتحديدًا ترخيص MIT.

وفي بيان صحفي، أدعى معهد سلامة الذكاء الاصطناعي في بريطانيا أن مجموعة الأدوات “Inspect” تعد بمنزلة منصة اختبار سلامة الذكاء الاصطناعي الأولى التي تقودها هيئة مدعومة من الدولة للاستخدام على نطاق واسع.

وقال إيان هوغارث، رئيس معهد سلامة الذكاء الاصطناعي في بريطانيا، في بيان: “يعني التعاون الناجح في اختبار سلامة الذكاء الاصطناعي وجود نهج مشترك وسهل الوصول إليه في التقييمات”.

وأضاف: “نأمل رؤية استخدام مجتمع الذكاء الاصطناعي العالمي لمجموعة الأدوات ‘Inspect’ لتنفيذ اختبارات السلامة النموذجية والمساعدة في التكيف والبناء عبر المنصة المفتوحة المصدر حتى نستطيع إنتاج تقييمات عالية الجودة في جميع المجالات”.

تتكون “Inspect” من 3 مكونات أساسية، وهي مجموعات البيانات، والمحللون، والمصححون.

توفر مجموعات البيانات عينات لاختبارات التقييم، ويقوم المحللون بالاختبارات، ويقيم المصححون عمل الحلول ويجمعون الدرجات من الاختبارات ويحولونها إلى مقاييس.

يمكن تعزيز مكونات “Inspect” المضمنة عبر الحزم الخارجية المكتوبة بلغة البرمجة بايثون (Python).

وفي منشور عبر إكس، وصفت ديبورا راج، زميلة الأبحاث في موزيلا والمتخصصة في أخلاقيات الذكاء الاصطناعي، “Inspect” بأنها شهادة على قوة الاستثمار العام في الأدوات المفتوحة المصدر لمساءلة الذكاء الاصطناعي.

وطرح كليمنت ديلانجو، الرئيس التنفيذي للشركة الناشئة للذكاء الاصطناعي Hugging Face، فكرة إدماج “Inspect” مع مكتبة نماذج Hugging Face أو إنشاء لوحة عامة تتضمن نتائج تقييمات مجموعة الأدوات.

يأتي إصدار معهد سلامة الذكاء الاصطناعي في بريطانيا لمجموعة الأدوات “Inspect” بعد أن أطلق المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة “NIST GenAI”، وهو برنامج لتقييم العديد من تقنيات الذكاء الاصطناعي التوليدي، ويشمل ذلك الذكاء الاصطناعي المولد للنصوص والصور.

ويخطط المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة لإصدار معايير والمساعدة في إنشاء أنظمة للكشف عن صحة المحتوى وتشجيع تطوير البرامج لاكتشاف المعلومات المزيفة أو المضللة المولدة بالذكاء الاصطناعي.

من تغطية فريق عمل تك عربي لورشة عمل تحت عنوان “الشباب والتكنولوجيا والوظائف”

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى