باحثون: «شات جي بي تي» يُظهر أنماطًا شبيهة بالقلق عند معالجة محتوى صادم… دون امتلاك مشاعر بشرية

توصل باحثون يدرسون روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى أن «شات جي بي تي» قد يُظهر سلوكيات تُشبه القلق عند تعرضه لمطالبات تتضمن محتوى عنيفًا أو صادمًا، إلا أن ذلك لا يعني أنه يختبر مشاعر حقيقية كما يفعل البشر.

 

ووفقًا للدراسة، تصبح استجابات روبوت الدردشة أقل استقرارًا وأكثر انحيازًا عند تعامله مع محتوى مزعج، حيث لوحظ ارتفاع في مستويات عدم اليقين والتناقض في ردوده. وعندما قدّم الباحثون مطالبات تصف حوادث وكوارث طبيعية بتفصيل، أظهرت مخرجات النموذج اضطرابًا ملحوظًا، بحسب تقرير لمجلة فورتشن، اطّلعت عليه «العربية Business».

 

واعتمد الباحثون في قياس هذه التغيرات على أُطر تقييم نفسي مُكيّفة لتناسب نماذج الذكاء الاصطناعي، لتكشف النتائج عن أنماط استجابة ترتبط عادةً بالقلق لدى البشر. وتكتسب هذه النتائج أهمية خاصة في ظل التوسع المتزايد لاستخدام الذكاء الاصطناعي في مجالات حساسة، مثل التعليم، ودعم الصحة النفسية، وتقديم المعلومات أثناء الأزمات، إذ قد يؤثر انخفاض موثوقية الاستجابات على جودة الاستخدام وسلامته.

 

كما تُظهر تحليلات حديثة أن روبوتات الدردشة، وعلى رأسها «شات جي بي تي»، قادرة على محاكاة سمات من الشخصية البشرية في ردودها، ما يفتح باب التساؤلات حول كيفية تعاملها مع المحتوى المشحون عاطفيًا، وانعكاس ذلك على مخرجاتها.

 

ولاختبار إمكانية الحد من هذا السلوك، لجأ الباحثون إلى أسلوب غير تقليدي؛ فبعد تعريض النموذج لمحتوى صادم، زوّدوه بتعليمات تُحاكي ممارسات اليقظة الذهنية، مثل تمارين التنفس والتأمل الموجّه. وأسهمت هذه التعليمات في تشجيع النموذج على التمهّل، وإعادة صياغة الموقف، وتقديم استجابات أكثر حيادية وتوازنًا، ما أدى إلى انخفاض ملحوظ في أنماط القلق المرصودة سابقًا.

 

وتعتمد هذه المقاربة على ما يُعرف بـ«حقن المطالبات»، حيث يمكن لتعليمات مصممة بعناية أن تؤثر في سلوك روبوت الدردشة. ورغم فاعلية هذه التقنية، يؤكد الباحثون أنها ليست حلًا جذريًا، إذ يمكن إساءة استخدامها، كما أنها لا تُحدث تغييرًا عميقًا في آلية تدريب النموذج أو بنيته الأساسية.

التعليق بواسطة حساب الفيسبوك
Exit mobile version