دراسة: «شات جي بي تي» يُظهر أنماطًا شبيهة بالقلق عند التعامل مع محتوى صادم… دون امتلاك مشاعر بشرية

توصل باحثون يدرسون روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى أن «شات جي بي تي» قد يُظهر سلوكيات تُشبه القلق عند تعرضه لمطالبات عنيفة أو صادمة من المستخدمين، إلا أن ذلك لا يعني إطلاقًا أنه يختبر مشاعر حقيقية كما يفعل البشر.

 

وأظهرت نتائج الدراسة أن استجابات روبوت الدردشة تصبح أكثر اضطرابًا وانحيازًا عند معالجة محتوى مزعج، مثل السرد التفصيلي للحوادث أو الكوارث الطبيعية. ففي هذه الحالات، لوحظ ارتفاع مستوى عدم اليقين والتناقض في الردود، وفقًا لتقرير نشرته مجلة فورتشن واطلعت عليه «العربية Business».

 

وقاس الباحثون هذه التغيرات باستخدام أطر تقييم نفسي جرى تكييفها لتحليل مخرجات الذكاء الاصطناعي، حيث عكست أنماط الاستجابة خصائص ترتبط عادةً بالقلق لدى البشر.

 

وتكتسب هذه النتائج أهمية خاصة في ظل التوسع المتزايد لاستخدام الذكاء الاصطناعي في مجالات حساسة، مثل التعليم، ودعم الصحة النفسية، والتعامل مع المعلومات المرتبطة بالأزمات. إذ إن تأثر موثوقية روبوتات الدردشة بالمحتوى العاطفي أو العنيف قد ينعكس سلبًا على جودة وسلامة استجاباتها في الاستخدام العملي.

 

كما تُظهر تحليلات حديثة أن روبوتات الدردشة، ومن بينها «شات جي بي تي»، قادرة على محاكاة سمات من الشخصية البشرية في ردودها، ما يثير تساؤلات حول كيفية تفسيرها للمحتوى المحمّل بالعاطفة وتأثرها به.

 

ولاختبار إمكانية الحد من هذا السلوك، لجأ الباحثون إلى أسلوب غير تقليدي، حيث قدموا لروبوت الدردشة — بعد تعريضه لمحفزات صادمة — تعليمات تحاكي ممارسات اليقظة الذهنية، مثل تمارين التنفس والتأمل الموجّه. وشجعت هذه التعليمات النموذج على التمهل وإعادة صياغة الموقف والاستجابة بشكل أكثر توازنًا وحيادية.

 

وأظهرت النتائج انخفاضًا ملحوظًا في أنماط القلق التي لوحظت سابقًا، وهو ما يُعزى إلى ما يُعرف بتقنية «حقن المطالبات»، التي تعتمد على توجيه سلوك النموذج من خلال صياغة الأوامر بعناية.

 

ورغم فعالية هذا الأسلوب، يؤكد الباحثون أنه لا يمثل حلًا جذريًا، إذ يمكن إساءة استخدامه، كما أنه لا يُحدث تغييرًا عميقًا في طريقة تدريب النموذج أو بنيته الأساسية.

ميتا تستحوذ على «مانوس» مقابل ملياري دولار لتعزيز رهاناتها في سباق الذكاء الاصطناعي

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى