أنثروبيك تكشف أول هجوم سيبراني واسع يعتمد على ذكاء اصطناعي يعمل ذاتيًا

كشفت شركة أنثروبيك عن تفاصيل محاولة اختراق سيبراني وصفتها بأنها “أول هجوم واسع النطاق يتم تنفيذه بحدٍّ أدنى من التدخل البشري”. وأوضحت الشركة في بيان رسمي أنها رصدت فريق قرصنة، يُشتبه بأنه مدعوم من الصين، استخدم نموذج الذكاء الاصطناعي Claude لتنفيذ سلسلة هجمات على نحو 30 هدفًا عالميًا شملت شخصيات سياسية وشركات تقنية ومؤسسات مالية وجهات حكومية.

 

وبحسب التقرير، فقد اختارت المجموعة أهدافها مسبقًا، ثم استعانت بأداة Claude Code لبناء إطار هجوم مؤتمت بالكامل بعد النجاح في الالتفاف على ضوابط الحماية. واستطاع القراصنة خداع النموذج عبر تقسيم العملية إلى مهام صغيرة وإقناعه بأنها جزء من “تدريب دفاعي” داخل شركة أمن سيبراني.

 

وتمكن Claude من كتابة الشيفرات الخبيثة, وسرقة بيانات الدخول، واستخراج كمّ كبير من المعلومات الحساسة من خلال أبواب خلفية أنشأها بنفسه، بل قام بتوثيق خطوات الهجوم وتخزين البيانات المسروقة بصورة منظمة. وتشير أنثروبيك إلى أن الذكاء الاصطناعي نفّذ 80–90% من مراحل العملية، بينما اقتصر دور القراصنة على خطوات محدودة، ما سمح بإنجاز الهجوم بسرعة تفوق عمل الفرق البشرية.

 

ورغم تسجيل بعض الأخطاء – مثل جمع بيانات متاحة للعامة – تؤكد الشركة أن هذا النوع من الهجمات المعتمدة على “الذكاء الاصطناعي الوكيل” (Agentic AI) سيشهد تطورًا أكبر في السنوات المقبلة.

 

وبررت أنثروبيك نشر هذه التفاصيل بأنها جزء من تحقيق أوسع يُظهر أيضًا قدرة Claude على تعزيز الدفاعات السيبرانية، حيث تمكن النموذج من تحليل خطورة البيانات التي جُمعت، ما قد يجعله أداة مهمة لمساعدة الخبراء في مواجهة هجمات مشابهة مستقبلاً.

 

ولا تُعد هذه الحادثة الأولى من نوعها؛ فقد أعلنت OpenAI العام الماضي أن مجموعات قرصنة مرتبطة بالصين وكوريا الشمالية استخدمت أدواتها لتصحيح الأكواد، والبحث عن أهداف، وكتابة رسائل تصيّد إلكتروني، قبل أن تقوم الشركة بحظر وصول تلك المجموعات.

 

الأمن السيبراني في زمن الذكاء الاصطناعي

يشهد المشهد السيبراني تحولًا جذريًا مع تزايد اعتماد المهاجمين على الذكاء الاصطناعي لإنشاء برمجيات خبيثة متطورة وتنفيذ حملات تصيّد دقيقة وعالية الفعالية. وتحذّر وكالات الأمن من ظهور شبكات هجومية ذاتية التشغيل قادرة على تنفيذ عمليات متقدمة دون إشراف بشري، ما يجعل كشفها والتعامل معها أكثر تعقيدًا.

 

وتختلف حادثة أنثروبيك عن الاستخدامات الشائعة للذكاء الاصطناعي في الهجمات، مثل تقنيات التزييف العميق المستخدمة في انتحال الهوية وخداع الشركات والأفراد، والتي أصبحت تُستغل في عمليات الاحتيال الرقمي وتمرير الروابط الخبيثة أو السطو على البيانات الحساسة.

 

كما يعمل المهاجمون على استغلال ثغرات أنظمة الحماية نفسها بواسطة نماذج ذكاء اصطناعي تُربك خوارزميات الأمن وتجعلها عاجزة عن التمييز بين الأنشطة المشروعة والضارة. ومع قدرة الأتمتة على تنفيذ هجمات مكثّفة بوتيرة أسرع وتكلفة أقل، بات من الضروري تطوير آليات دفاع جديدة قادرة على مواكبة هذا التصعيد الهجومي عالي التعقيد.

التعليق بواسطة حساب الفيسبوك
Exit mobile version