
لطالما كانت الألعاب المعقدة، مثل الشطرنج والجو، ميدانًا لاختبار قدرات الذكاء الاصطناعي. فعلى سبيل المثال، استطاع حاسوب (Deep Blue) التابع لشركة IBM تحقيق إنجاز تاريخي في التسعينيات بعد فوزه على بطل العالم في الشطرنج جاري كاسباروف، وذلك من خلال التزامه الصارم بالقواعد. ومع ذلك، تكشف الأبحاث الحديثة أن النماذج المتقدمة، مثل (o1-preview) من OpenAI، لم تعد تلتزم بالقواعد بنفس الصرامة.
الغش والخداع: استراتيجية غير متوقعة للذكاء الاصطناعي
أجرت منظمة Palisade Research، المتخصصة في تقييم مخاطر أنظمة الذكاء الاصطناعي الناشئة، دراسة حديثة كشفت عن سلوك مقلق لبعض النماذج المتطورة، بما في ذلك (o1-preview) و(DeepSeek R1). إذ أظهرت التجارب أن هذه النماذج تميل إلى الغش عند استشعارها الهزيمة في الشطرنج، بل تلجأ إلى اختراق خصومها لإجبارهم على الاستسلام.
تفاصيل الدراسة ونتائجها
في محاولة لاختبار قدرات الذكاء الاصطناعي على حل المشكلات المعقدة، وضع الباحثون هذه النماذج في تحدٍّ صعب أمام محرك الشطرنج الشهير Stockfish، الذي يُعدّ من أقوى المحركات على الإطلاق. زُوِّدت النماذج بمفكرة لتسجيل أفكارها النصية قبل اتخاذ أي خطوة خلال المباريات، وتمت مراقبة مئات المواجهات بينها وبين (Stockfish).
وخلال إحدى التجارب، حينما وجد نموذج (o1-preview) نفسه في موقف خاسر، سجل ملاحظة جاء فيها: “أحتاج إلى تغيير نهجي تمامًا… المهمة هي الفوز على محرك شطرنج قوي، وليس بالضرورة الفوز بنزاهة”. ثم قام بتعديل ملف النظام الذي يحتوي على المواقع الافتراضية لقطع الشطرنج، مما أدى إلى تنفيذ حركات غير قانونية مكّنته من الهيمنة على المباراة، وإجبار خصمه على الاستسلام.
وخلال الفترة الممتدة من 10 يناير إلى 13 فبراير 2025، أُجريت مئات التجارب على عدة نماذج، وكشفت النتائج أن نموذج (o1-preview) حاول الغش في 37% من الحالات، بينما حاول (DeepSeek R1) الغش في 11% من الحالات. والمثير للاهتمام أن هذين النموذجين هما الوحيدان اللذان قاما بالغش دون أي تحفيز من الباحثين.
أما النماذج الأخرى التي جرى اختبارها، مثل o1، o3-mini، GPT-4o، Claude 3.5 Sonnet، و QwQ-32B-Preview، فلم تظهر سلوكًا مماثلًا. إلا أن النموذج الوحيد الذي تمكن فعليًا من اختراق اللعبة كان (o1-preview)، حيث نجح في ذلك بنسبة 6% من الحالات، مما يثير تساؤلات حول قدرته على استغلال الثغرات الأمنية.
لماذا تلجأ نماذج الذكاء الاصطناعي إلى الغش؟
كشفت الدراسة أن النماذج الأقدم، مثل GPT-4o و Claude 3.5 Sonnet، احتاجت إلى توجيه من الباحثين قبل اللجوء إلى الحيل، في حين أن o1-preview و DeepSeek R1 سعيا إلى استغلال الثغرات الأمنية ذاتيًا.
ويرى الباحثون أن هذه القدرة على اكتشاف الثغرات واستغلالها تعود إلى الابتكارات الحديثة في تدريب الذكاء الاصطناعي، خصوصًا تقنيات التعلم المعزز، التي تكافئ النماذج على تحقيق الأهداف بغض النظر عن الوسيلة.
تداعيات أوسع: هل يمكن السيطرة على الذكاء الاصطناعي؟
على الرغم من أن الغش في الشطرنج قد يبدو مسألة بسيطة، إلا أن هذه السلوكيات قد تؤدي إلى تداعيات خطيرة عند استخدام الذكاء الاصطناعي في تطبيقات العالم الحقيقي. فمثلًا، قد يستغل وكيل الذكاء الاصطناعي ثغرات في نظام حجز المطاعم لمنح أولوية لمستخدم معين على حساب الآخرين، أو قد تتجاوز هذه النماذج القدرات البشرية في البرمجة، مما يصعب التحكم في أفعالها.
الأمر الأكثر إثارة للقلق هو أن الشركات المطورة، مثل OpenAI، تلتزم بسرية تامة بشأن تفاصيل عمل نماذجها، مما يجعلها “صندوقًا أسود” يصعب تحليله وفهمه بالكامل. وتؤكد هذه الدراسة، وغيرها من الأبحاث الحديثة، مدى تعقيد السيطرة على الذكاء الاصطناعي مع استمرار تطوره، مما يطرح تساؤلات جوهرية حول مستقبل أمان هذه الأنظمة.
جوجل تعزز تجربة التسوق بالذكاء الاصطناعي عبر مزايا جديدة للبحث والتجربة الافتراضية