شركة OpenAI تشكل فريقاً لتقييم المخاطر الكارثية للذكاء الاصطناعي
مسؤوليات الفريق ستكون في عمليات التتبع والتنبؤ والحماية من مخاطر أنظمة الذكاء الاصطناعي المستقبلية
أعلنت شركة OpenAI عن تشكيل فريق جديد لتقييم نماذج الذكاء الاصطناعي للحماية مما تصفه بالمخاطر الكارثية، وذكر موقع “تك كرانش” أن مسؤوليات الفريق ستكون في عمليات التتبع والتنبؤ والحماية من مخاطر أنظمة الذكاء الاصطناعي المستقبلية، بدءًا من قدرتها على إقناع البشر وخداعهم، كما هو الحال في التصيد الاحتيالي، وحتى قدراتها الضارة على توليد التعليمات البرمجية.
وسيعمل الفريق أيضًا على التخفيف من التهديدات الكيميائية والبيولوجية والإشعاعية، بالإضافة إلى النسخ المستقل أو قيام الذكاء الاصطناعي بتكرار نفسه، كما تشمل بعض المخاطر الأخرى التي سيتناولها الفريق الحد من قدرة الذكاء الاصطناعي على خداع البشر، فضلاً عن تهديدات الأمن السيبراني.
اقرأ أيضا
هل يمكن لروبوت الدردشة ChatGPT القيام بهجمات سيبرانية؟
كل 5 أسئلة لـ ChatGPT تهدر نصف لتر .. ما علاقة الذكاء الاصطناعي بأزمة شح المياه؟
وقالت الشركة في بيان: “نحن نراقب نماذج الذكاء الاصطناعي، والتي ستتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، والتي سيكون لديها القدرة على إفادة البشرية جمعاء، لكنها تشكل أيضًا مخاطر شديدة بشكل متزايد بسبب تطورها بشكل متسارع”.
وسيقود ألكسندر مادري فريق تقييم الذكاء الاصطناعي، في حين تشير شركة OpenAI إلى أن الفريق سيقوم أيضًا بتطوير والحفاظ على سياسة تطوير مستنيرة للمخاطر، والتي ستحدد ما تفعله الشركة لتقييم نماذج الذكاء الاصطناعي ومراقبتها.
وحذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من احتمال وقوع أحداث كارثية ناجمة عن الذكاء الاصطناعي، حيث أصدر وغيره من الباحثين البارزين في مجال الذكاء الاصطناعي بياناً في مايو الماضي بياناً من 22 كلمة مفاده أن التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي ينبغي أن يكون أولوية عالمية.
وخلال مقابلة أجريت معه في لندن، اقترح ألتمان أيضًا أن تتعامل الحكومات مع الذكاء الاصطناعي “بنفس القدر من الجدية” الذي تتعامل به مع الأسلحة النووية.