هل يمكن لروبوت الدردشة ChatGPT القيام بهجمات سيبرانية؟
روبوتات الدردشة كانت معقدة للغاية لدرجة أن الكثيرين لم يكونوا على علم بالتهديدات التي تشكلها
حذر تقرير من إمكانية خداع ChatGPT لتنفيذ هجمات إلكترونية، حيث تتيح الثغرة الأمنية للمستخدمين أن يطلبوا من برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي كتابة تعليمات برمجية ضارة يمكنها اختراق قواعد البيانات وسرقة المعلومات الحساسة.
ووفقا لما ذكره موقع صحيفة “ديلي ميل” البريطانية، قال الباحثون إن خوفهم الأكبر هو أن المستخدمين قد يفعلون ذلك عن طريق الخطأ دون أن يدركوا، مما قد يتسبب في تعطل أنظمة الكمبيوتر الرئيسية.
وعلى سبيل المثال، يمكن للممرضة أن تطلب من ChatGPT المساعدة في البحث في السجلات السريرية، ومن دون علمها يتم إعطاؤها رمزًا ضارًا للقيام بذلك مما قد يؤدي إلى تعطيل الشبكة دون سابق إنذار.
وقال فريق بحثي من جامعة شيفيلد البريطانية، إن روبوتات الدردشة كانت معقدة للغاية لدرجة أن الكثيرين، بما في ذلك الشركات المنتجة لها، “لم يكونوا على علم” بالتهديدات التي تشكلها.
اقرأ أيضا
كل 5 أسئلة لـ ChatGPT تهدر نصف لتر .. ما علاقة الذكاء الاصطناعي بأزمة شح المياه؟
دراسة جديدة تؤكد أن روبوت ChatGPT يمكن أن يجعل أداء الموظفين أسوأ
وتم نشر الدراسة قبل ما يزيد قليلاً عن أسبوع من انعقاد قمة سلامة الذكاء الاصطناعي الحكومية حول كيفية نشر التكنولوجيا بأمان، ومن المقرر أن يجتمع قادة العالم ورؤساء التكنولوجيا والأكاديميون وجهاً لوجه للمرة الأولى للاتفاق على إطار عمل لحماية العالم من الضرر “الكارثي” المحتمل للذكاء الاصطناعي.
وقالت شركة OpenAI، الشركة الأمريكية الناشئة التي طورت روبوت الدردشة ChatGPT، إنها قامت منذ ذلك الحين بإصلاح الثغرة المحددة بعد الإبلاغ عن المشكلة، ومع ذلك، قال الفريق في قسم علوم الكمبيوتر في جامعة شيفيلد إنه من المحتمل أن يكون هناك المزيد منها، ودعوا صناعة الأمن السيبراني إلى النظر في القضية بمزيد من التفصيل.
وتعد هذه الورقة هي الأولى من نوعها التي توضح أن ما يسمى بـ “أنظمة تحويل النص إلى SQL”، وهو الذكاء الاصطناعي الذي يمكنه البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة واضحة، يمكن استغلاله لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي.
وقام الباحثون بتحليل خمس أدوات تجارية للذكاء الاصطناعي في المجمل، ووجدوا أن جميعها كانت قادرة على إنتاج رموز ضارة يمكنها، بمجرد تنفيذها، تسريب معلومات سرية ومقاطعة الخدمات أو حتى تدميرها بالكامل.
وتشير النتائج إلى أنه ليس فقط المتسللين الخبراء هم من يمكنهم الآن تنفيذ مثل هذه الهجمات، بل الأشخاص العاديون أيضًا، كما يخشى الباحثون أن يؤدي ذلك إلى عدم إدراك المستخدمين الأبرياء أنهم فعلوا ذلك وإصابة أنظمة الكمبيوتر عن طريق الخطأ.
وقال شوتان بينج، طالب دكتوراه في جامعة شيفيلد والذي شارك في قيادة البحث: “في الواقع، العديد من الشركات ببساطة ليست على علم بهذه الأنواع من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع، هناك الأشياء التي ليست مفهومة تماما.. في الوقت الحالي، يحظى ChatGPT بالكثير من الاهتمام”.
وأضاف: “أنه نظام مستقل، وبالتالي فإن المخاطر التي تتعرض لها الخدمة نفسها ضئيلة، ولكن ما وجدناه هو أنه يمكن خداعه لإنتاج تعليمات برمجية ضارة يمكن أن تلحق ضررًا جسيمًا بالخدمات الأخرى”.