OpenAI تقرّ بصعوبة القضاء على هجمات حقن الأوامر في متصفح ChatGPT Atlas

تواصل شركة OpenAI تعزيز منظومتها الأمنية لحماية متصفح ChatGPT Atlas من الهجمات السيبرانية، إلا أنها تعترف في الوقت نفسه بأن هجمات حقن الأوامر (Prompt Injection) ستظل خطرًا قائمًا يصعب استئصاله بشكل كامل، ما يفتح باب التساؤلات حول مدى أمان عمل وكلاء الذكاء الاصطناعي في بيئة الويب المفتوحة.

شبكة تك عربي

 

وأوضحت الشركة في تدوينة رسمية نُشرت مؤخرًا أن حقن الأوامر، الذي يعتمد على تمرير تعليمات خبيثة مخفية داخل مواقع الويب أو رسائل البريد الإلكتروني للتأثير على سلوك أنظمة الذكاء الاصطناعي، يشبه في طبيعته أساليب الاحتيال والهندسة الاجتماعية، وهو تهديد مرشح للاستمرار. كما أقرت بأن تفعيل وضع الوكيل في Atlas يوسّع نطاق المخاطر الأمنية المحتملة.

 

وكان إطلاق متصفح ChatGPT Atlas في أكتوبر الماضي قد لفت أنظار باحثي الأمن السيبراني، الذين سارعوا إلى عرض تجارب عملية تُظهر إمكانية التلاعب بسلوك المتصفح عبر تعليمات بسيطة مدسوسة داخل مستندات أو صفحات ويب. وفي السياق نفسه، حذّرت شركات أخرى مثل Brave من أن هجمات حقن الأوامر غير المباشرة تمثل تحديًا بنيويًا لجميع متصفحات الذكاء الاصطناعي، بما فيها حلول منافسة مثل متصفح Comet من Perplexity.

 

ولا يقتصر هذا القلق على OpenAI وحدها؛ إذ حذّر المركز الوطني للأمن السيبراني في المملكة المتحدة مؤخرًا من أن هجمات حقن الأوامر ضد تطبيقات الذكاء الاصطناعي التوليدي قد لا يمكن منعها كليًا، داعيًا المؤسسات إلى التركيز على تقليل المخاطر والحد من آثارها بدل السعي لإيقافها بشكل نهائي.

 

وفي مواجهة هذا التحدي طويل الأمد، تعتمد OpenAI على استراتيجية استباقية تقوم على الاختبار المستمر وسرعة الاستجابة، بهدف اكتشاف أساليب الهجوم الجديدة داخليًا قبل أن يتم استغلالها في الواقع. وتنسجم هذه الرؤية مع توجهات شركات كبرى مثل Google وAnthropic، التي تؤكد بدورها أهمية بناء دفاعات متعددة الطبقات وإخضاع الأنظمة الوكيلية لاختبارات ضغط متواصلة.

 

لكن OpenAI تميّزت بتبني نهج مختلف يتمثل في تطوير مهاجم آلي قائم على نماذج اللغة، جرى تدريبه باستخدام تقنيات التعلم المعزز لمحاكاة دور المخترقين والبحث عن ثغرات محتملة. ويتيح هذا النظام اختبار الهجمات داخل بيئة محاكاة، ودراسة كيفية تفكير الوكيل واستجابته، ثم تحسين أساليب الهجوم بشكل متكرر، ما يمكّن الشركة من رصد نقاط الضعف بوتيرة أسرع من المهاجمين الحقيقيين.

 

وأشارت الشركة إلى أن هذا النظام كشف عن استراتيجيات هجومية جديدة لم تظهر في اختبارات الفرق البشرية أو تقارير الباحثين الخارجيين، بل تمكن من توجيه الوكيل لتنفيذ سلاسل معقدة من الأفعال الضارة تمتد لعشرات الخطوات.

 

وفي أحد العروض التوضيحية، بيّنت OpenAI كيف نجح هذا المهاجم الآلي في تمرير رسالة بريد إلكتروني خبيثة إلى صندوق الوارد، ما أدى — قبل التحديث الأمني — إلى تنفيذ تعليمات مخفية مثل إرسال رسالة استقالة بدلًا من إعداد رد تلقائي خارج المكتب. وبعد تطبيق التحديثات الأخيرة، أصبح Atlas قادرًا على اكتشاف محاولة حقن الأوامر وتنبيه المستخدم إليها.

 

ورغم إقرار OpenAI بصعوبة الوصول إلى حماية مطلقة، تؤكد الشركة أنها تركز على الاختبارات واسعة النطاق وتسريع دورات التحديث الأمني، إلى جانب التعاون مع أطراف خارجية، لتعزيز أمان Atlas والحد من فرص استغلاله.

 

من جانبه، أوضح رامي مكارثي، الباحث الأمني الرئيسي في شركة Wiz، أن التعلم المعزز أداة فعّالة للتكيف مع سلوك المهاجمين، لكنه ليس كافيًا بمفرده، مشيرًا إلى أن مخاطر أنظمة الذكاء الاصطناعي تتحدد وفق معادلة “درجة الاستقلالية مضروبة في مستوى الوصول”.

 

وأضاف أن المتصفحات الوكيلية تجمع بين استقلالية متوسطة ووصول مرتفع إلى بيانات حساسة مثل البريد الإلكتروني ووسائل الدفع، ما يجعلها عالية الخطورة حاليًا. ولهذا، توصي OpenAI بتقييد الصلاحيات، وطلب موافقة المستخدم قبل تنفيذ الإجراءات الحساسة، وتزويد الوكلاء بتعليمات دقيقة بدل منحهم حرية واسعة قد تسهّل تأثرهم بالمحتوى الخفي أو الضار.

 

ورغم أن حماية المستخدمين تمثل أولوية قصوى، يرى بعض خبراء الأمن أن القيمة العملية لمتصفحات الذكاء الاصطناعي لا تزال — في الوقت الراهن — أقل من المخاطر التي تنطوي عليها، مؤكدين أن هذا التوازن قد يتحسن مستقبلًا، لكنه اليوم ما زال يمثل تحديًا حقيقيًا.

سامسونج تُطلق النسخة التجريبية من متصفحها للحواسيب بتكامل ذكي مع Galaxy AI

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى