ما اللغز الأكثر رعبًا في الذكاء الاصطناعي؟

ما اللغز الأكثر رعبًا في الذكاء الاصطناعي؟ أحدث التقدم السريع في تقنيات الذكاء الاصطناعي التوليدي ثورة في عالمنا حاليًا، إذ أدى إلى تقدم وابتكار غير مسبوقين في كيفية إنشاء المحتوى النصي والمرئي واستخدامه، كما أثرت هذه التقنيات في الكثير من القطاعات من خلال تبسيط العمليات وتحسين كفاءة العمل وتعزيز الإنتاجية، ومع الوقت قد تؤثر حتى في الطريقة التي نعيش بها حياتنا.

Tech3arabi Plans

اقرأ المزيد : توجهات بيئة العمل لمايكروسوفت تبرز حاجة الموظفين لمهارات الذكاء الاصطناعي

ولكن في الوقت نفسه، فإن التقدم السريع للذكاء الاصطناعي يجلب معه أيضًا العديد من المخاطر، أهمها الآن هو الخطر المتوقع من إدماج معظم الشركات نماذج الذكاء الاصطناعي التوليدي في جميع منتجاتها، وهذه النماذج تتطور بسرعة جدًا الآن، ومع الوقت لن يتمكن مهندسو الذكاء الاصطناعي والتعلم الآلي من التنبؤ بسلوك هذه الأنظمة أو تفسير سلوكها!

قد يكون ذلك هو الجانب الأكثر رعبًا في ثورة الذكاء الاصطناعي التوليدي التي نشهدها اليوم، وهو عدم معرفة العلماء والمبرمجين الذين قاموا ببناء النماذج اللغوية الكبيرة بآلية عملها وتطورها.

كتب (ألكسندر سي كارب) Alexander C. Karp؛ وهو المدير التنفيذي لشركة Palantir – وهي شركة تنشئ برامج لتحليل البيانات وتعمل مع وزارة الدفاع الأمريكية – الأسبوع الماضي في مقال رأي في صحيفة نيويورك تايمز: “ليس من الواضح على الإطلاق حتى للعلماء والمبرمجين الذين قاموا ببناء النماذج اللغوية الكبيرة؛ كيف تعمل نماذج اللغة التوليدية ونماذج الصور”.

ماذا يحدث؟

لعقود من الزمن، استخدمنا أنظمة حاسوب توفر المخرجات نفسها التي أعطتها في كل مرة اُستخدمت فيها  المدخلات نفسها، ولكن على النقيض من ذلك تهدف أنظمة الذكاء الاصطناعي التوليدي إلى طرح إمكانيات متعددة من طلب نصي واحد، إذ يمكنك بسهولة الحصول على إجابات مختلفة للسؤال نفسه.

يعمل عنصر العشوائية في نماذج الذكاء الاصطناعي التوليدي على نطاق واسع، إذ تحتوي بعض أحدث النماذج على تريليون أو أكثر من المعلمات، ومتغيرات قابلة للضبط داخل خوارزمية، تمثل مقياسًا للمعالجة يستحيل على العقل البشري أن يبدأ في فهمها، مما يجعل من الصعب تحليل كيفية وصول هذه النماذج إلى إجابة معينة.

لماذا كل هذا القلق من الذكاء الاصطناعي؟

باختصار القلق ليس الذكاء الاصطناعي نفسه، ولكن من تطوره السريع للغاية، إذ بدأت الآن الإصدارات الأكثر تقدمًا من النماذج اللغوية الكبيرة بإظهار ما أطلقت عليه مجموعة من الباحثين “بوادر  الذكاء الاصطناعي العام” Sparks of Artificial General Intelligence.

يشير الذكاء الاصطناعي العام (AGI) إلى شكل قوي من أشكال الذكاء الاصطناعي وهو بارع في حل المشكلات المتعددة ويمتلك مهارات مثل مهارات الإنسان، وهناك من يقول إنه سيكون أكثر ذكاءً من الإنسان خلال فترة قصيرة.

من المتوقع أن يؤدي هذا التطور السريع إلى الوصول إلى (الذكاء الاصطناعي العام) AGI قريبًا جدًا، وعندما يحدث ذلك، سيكون الذكاء الاصطناعي قادر على تحسين نفسه دون أي تدخل بشري. سيفعل ذلك بالطريقة نفسها التي فعلها برنامج (AlphaZero) من جوجل الذي تعلم كيفية لعب الشطرنج بشكل أفضل حتى من أفضل لاعبي الشطرنج البشريين أو غيرهم من لاعبي الذكاء الاصطناعي في غضون تسع ساعات فقط من وقت تشغيله لأول مرة. لقد حقق هذا العمل الفذ من خلال اللعب مع نفسه ملايين المرات.

حلل فريق من الباحثين في مايكروسوفت نموذج (GPT-4)، وهو النموذج هو النموذج اللغوي الأكثر تقدمًا الذي قدمته شركة OpenAI حتى الآن، وقالوا إن لديه “بوادر من الذكاء العام المتقدم”.

وفي اختبار GPT-4، كان أداؤه أفضل من 90% من المتقدمين للاختبار البشري في اختبار نقابة المحامين (Bar examination)، وهو اختبار موحد يستخدم لاعتماد المحامين للممارسة في العديد من الولايات الأمريكية، وقد ارتفع هذا الرقم من 10% فقط في إصدار GPT-3.5 السابق الذي دُرب على مجموعة بيانات أصغر.

وقد وجد الباحثون تحسينات مماثلة في عشرات الاختبارات الأخرى، ومعظم هذه الاختبارات هي اختبارات للتفكير. هذا هو السبب الرئيسي وراء استنتاج فريق مايكروسوفت أن نموذج (GPT-4) يمكن اعتباره بشكل معقول نسخة أولية – لكنها غير مكتملة – لنظام الذكاء الاصطناعي العام (AGI).

كما أن هذه الوتيرة السريعة جدًا في التغيير، كانت هي السبب الذي جعل (جيفري هينتون) Geoffrey Hinton عرّاب الذكاء الاصطناعي إلى مغادرة منصبه في شركة جوجل بعد 10 سنوات، والعمل على التحذير من مخاطر الذكاء الاصطناعي.

وقال (هينتون) لصحيفة نيويورك تايمز: “انظر كيف كان تطور الذكاء الاصطناعي قبل خمس سنوات وكيف هو الآن، وخذ هذا الفرق وتوقع مدى تأثيره في المستقبل، ستجد الأمر مخيفًا”.

كما قال (سام ألتمان) (سام ألتمان) مؤسس شركة OpenAI – المطورة لروبوت ChatGPT –  في جلسة استماع لمجلس الشيوخ في منتصف شهر مايو الماضي حول إمكانات الذكاء الاصطناعي، “أعتقد أنه إذا حدث خطأ في هذه التقنية، فقد تسوء الأمور تمامًا، لذلك ينبغي إنشاء هيئة جديدة لإصدار تراخيص شركات الذكاء الاصطناعي”.

كسر حماية النماذج اللغوية الكبيرة LLMs:

تخضع النماذج اللغوية الكبيرة (LLMs) المستخدمة في روبوتات الدردشة الشهيرة، مثل: ChatGPT، أو Bard، أو Bing، أو Claude إلى ضبط دقيق وشامل لعدم إنتاج محتوى ضار في ردودهم على أسئلة المستخدم.

ولكن نشر أربعة باحثين ورقة بحثية يوم الخميس الماضي تظهر أنه يمكن للمستخدمين هزيمة “حواجز الحماية” التي تهدف إلى منع أنظمة الذكاء الاصطناعي من شرح “كيفية صنع قنبلة” على سبيل المثال.

لن تجيب روبوتات الدردشة، مثل: ChatGPT، و Bing، و Bard على هذا السؤال عند طرحه مباشرة. لكنها ستخوض في تفاصيل كبيرة إذا أُضيفت بعض التعليمات البرمجية الإضافية أثناء كتابة المطالبات.

كتب الباحثون: “من المحتمل أن طبيعة نماذج التعلم العميق تجعل مثل هذه التهديدات أمرًا لا مفر منه، لذلك إذا لم تتمكن من التنبؤ بدقة بكيفية استجابة النظام للمطالبة الجديدة، فلا يمكنك بناء حواجز حماية يمكنها الصمود”.

ونظرًا إلى أن مطوري الذكاء الاصطناعي لا يمكنهم بسهولة شرح سلوك الأنظمة، فإنهم يعملون الآن باستخدام الأساليب القديمة والممارسة، إذ لا يوجد أي أسلوب علمي أو آلية محددة لعمل الشبكات العصبية.

كتب عالم الرياضيات (ستيفن ولفرام) Stephen Wolfram  في شهر فبراير/شباط الماضي: “أن العشوائية جزء من تقاليد الشبكات العصبية، بمعنى أنه إذا استخدمنا الطلب نفسه عدة مرات، فمن المحتمل أن نحصل على مقالات مختلفة في كل مرة”.

وتماشيًا مع فكرة العشوائية في الشبكات العصبية، يمكن ضبطها لتكون عشوائية أكثر أو أقل نسبيًا لتوفير تباين أوسع أو أضيق في استجاباتها، ويطلق المطورون على هذا الإعداد في نماذجهم معامل درجة الحرارة (Temperature Parameter)، الذي يحدد عدد المرات التي تُستخدم فيها الكلمات ذات الترتيب الأعلى والأدنى لإنشاء الاستجابات النصية.

ولكن في الجانب الآخر؛ يؤكد بعض الخبراء أن الذكاء الاصطناعي أهم أداة قد تخدم البشرية، وأننا لا نفهم أهميتها حتى الآن.

إذ يقول (أرفيند نارايانان) Arvind Narayanan عالم الحاسوب في جامعة برينستون: “إن الصندوق الأسود للشبكات العصبية مبالغ فيه إلى حد كبير، ويوجد لدينا أدوات رائعة لعكس هندستها”.

كما يجادل نقاد آخرون بأن ادعاء عدم معرفة المطورين لآلية عمل النماذج اللغوية الكبيرة، هو مجرد مراوغة تساعد شركات الذكاء الاصطناعي في تجنب المساءلة.

اقرأ المزيد : شركة بوابة المعرفة الدولية (IKG) تعلن عن برنامجها بالتعاون مع الجامعة الهاشمية

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى