OpenAI تعتقد أن الذكاء الاصطناعي الخارق قادم وتسعى لتطوير أدوات للسيطرة عليه

تقنية الشركة الناشئة ستكتسب قدرات تفوق الذكاء البشري في أي وقت قريبًا

بينما كان المستثمرون يستعدون لإحداث اضطراب كبير بعد إقالة سام ألتمان المفاجئة من OpenAI، وكان ألتمان يخطط لعودته إلى الشركة، كان أعضاء فريق Superalignment في OpenAI يعملون بجد على مشكلة كيفية التحكم في الذكاء الاصطناعي الذي يفوق البشر ذكاءً.

Tech3arabi Plans

أو على الأقل، هذا هو الانطباع الذي يرغبون في إعطائه.

هذا الأسبوع، أجريت مكالمة هاتفية مع ثلاثة من أعضاء فريق Superalignment – كولين بيرنز، وبافيل إزمايلوف، وليوبولد آشنبرينر – الذين كانوا في نيو أورليانز لحضور NeurIPS، المؤتمر السنوي لتعلُّم الآلة، لتقديم أحدث أعمال OpenAI لضمان تصرف أنظمة الذكاء الاصطناعي حسب المقصود.

أسست OpenAI فريق Superalignment في يوليو لتطوير طرق لتوجيه وتنظيم وإدارة أنظمة الذكاء الاصطناعي “فائقة الذكاء” – أي الأنظمة النظرية التي تمتلك ذكاءً يفوق ذكاء البشر بكثير.

وقال بيرنز: “اليوم، يمكننا في الأساس محاذاة النماذج الأقل ذكاءً منا، أو ربما على مستوى الإنسان في أفضل الأحوال. محاذاة نموذج ذكي أكثر منا في الواقع أمر أقل وضوحًا بكثير – كيف يمكننا حتى القيام بذلك؟”

يقود جهود Superalignment المؤسس المشارك والرئيس العلمي لـ OpenAI، إيليا سوتسكفر، وهو الأمر الذي لم يثير الدهشة في يوليو – لكنه يثير الدهشة الآن بالتأكيد في ضوء حقيقة أن سوتسكفر كان من بين الذين دفعوا في البداية إلى إقالة ألتمان. بينما تشير بعض التقارير إلى أن سوتسكفر في “حالة من التيه” بعد عودة ألتمان، يخبرني العلاقات العامة في OpenAI أن سوتسكفر لا يزال – اعتبارًا من اليوم على الأقل – يقود فريق Superalignment.

بينما دعا ألتمان إلى إجراء مقارنات بين OpenAI ومشروع مانهاتن، فقد ذهب إلى حد تكوين فريق لاستكشاف نماذج الذكاء الاصطناعي لحماية نفسها من “التهديدات الكارثية”، بما في ذلك التهديدات الكيميائية والنووية، ويقول بعض الخبراء أن هناك القليل من الأدلة التي تشير إلى أن تقنية الشركة الناشئة ستكتسب قدرات تفوق الذكاء البشري في أي وقت قريبًا – أو أبدًا. ويضيف هؤلاء الخبراء أن ادعاءات الذكاء الفائق الوشيك تخدم فقط لإبعاد الانتباه عن القضايا الملحة للتنظيم الذكي في يومنا هذا، مثل التحيز الخوارزمي وميل الذكاء الاصطناعي إلى السمية.

بالتأكيد، يظهر أن سوتسكفر يعتقد بصدق أن الذكاء الاصطناعي – ليس فقط OpenAI بحد ذاتها، ولكن كفريق بحثي – قد يشكل تهديدًا للوجود في يوم من الأيام. يُقال إنه اتخذ إجراءات تعبيرية جادة، حيث قام بتكليف صنع تمثال خشبي ثم حرقه في موقع خارجي للشركة؛ وذلك لإظهار التزامه الشخصي بمنع الأذى الذي قد يحدثه الذكاء الاصطناعي للبشرية. كما يستخدم نسبة معينة كبيرة من قدرات الحوسبة لدى OpenAI – تصل إلى 20% من وحدات المعالجة المركزية الحالية – في أبحاث فريق Superalignment.

وقال آشنبرينر: “لقد كان تقدم الذكاء الاصطناعي مؤخرًا سريعًا للغاية، وأؤكد لكم أنه لن يتباطأ. أعتقد أننا سنصل إلى أنظمة على مستوى الإنسان قريبًا جدًا، لكن الأمر لن يتوقف عند هذا الحد – سنصل مباشرة إلى أنظمة فائقة الذكاء … فكيف نحاذي أنظمة الذكاء الاصطناعي فائقة الذكاء ونجعلها آمنة؟ إنها حقًا مشكلة للبشرية جمعاء – ربما أهم مشكلة تقنية لم تحل في عصرنا.”

OpenAI تمنح الصحفيين أدوات جديدة لإنشاء محتوى صحفي عالي الجودة

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى