نائب رئيس جوجل يحذر من ChatGPT الذي يصيب المستخدمين بالهلوسة

هذا النوع من الذكاء الاصطناعي يمكن أن يؤدي في بعض الأحيان إلى الهلوسة

فجر برابهاكار راغافان، نائب الرئيس الأول في جوجل، مفاجأة عن تطبيق ChatGPT حيث أوضح أن هذا النوع من الذكاء الاصطناعي يمكن أن يؤدي في بعض الأحيان إلى الهلوسة .

Tech3arabi Plans

وقال راغافان لصحيفة “ولت سونتاغ” الألمانية: ” نحن نشعر أيضًا بمسؤولية كبيرة” ولا نريد تضليل الجمهور”.

وأضاف راغافان : “هذا النوع من الذكاء الاصطناعي الذي نتحدث عنه [ChatGPT]، يمكن أن يؤدي في بعض الأحيان إلى شيء نسميه الهلوسة”.

وتابع: “نريد اختباره على نطاق واسع بما يكفي بحيث نكون سعداء في النهاية بالمقاييس التي نستخدمها للتحقق من صحة الردود” وفق وكالة رويترز.

وشات جي بي تي (ChatGPT) هو روبوت دردشة مدعوم بالذكاء الاصطناعي تم تطويره بواسطة OpenAI وتم إطلاقه لأول مرة في شهر نوفمبر 2022، يعمل روبوت الذكاء الاصطناعي هذا على نموذج تقنية GPT-3.5 الخاص بـ OpenAI والذي يهدف إلى الحصول على أكبر تدفق للمعلومات وهذا ما جعل ChatGPT يبدو لمن يقوم بالحديث معه أنه شخص حقيقي يجيب على جميع الأسئلة ويقوم بإنجاز المهام المطلوبة منه بسرعة.

ويقوم ChatGPT بإنتاج ردود ذات مصداقية وتأليف المقالات أو كتابة طلبات العمل والأهم العمل الأكاديمي أي الأبحاث والمقالات المطلوبة من الطلاب!

وبحسب شهادات العديد من مدرسي الجامعات والمدارس، فإن المقالات التي كتبها ChatGBT تحصل على علامة كاملة لو كان طالباً قد قام بكتابتها. ما أثار مخاوف من أنه قد يحل محل مجموعة من الوظائف، التي تعتمد على المحتوى المكتوب والصوري أيضاً مثل كتابة العروض الترويجية، ومرافعة الدفاع عن متهم وبالتأكيد رسالة الدكتوراة لطالب!

وكتب أحد المستخدمين أنه سأل ChatGPT، كيف تشعر حيال استخدام الطلاب لك للغش في مهام المدرسة؟ وجاءت إجابته كالتالي: “بصفتي نموذجًا للغة الذكاء الاصطناعي، ليس لدي مشاعر أو عواطف أو آراء شخصية. أنا نموذج للتعلم الآلي تم تدريبه على الاستجابة لمدخلات المستخدم بناءً على أنماط البيانات التي تدربت عليها. يتعارض استخدام ChatGPT أو أي نموذج آخر للذكاء الاصطناعي لأغراض الغش مع مبادئ النزاهة الأكاديمية ولا يتماشى مع الغرض المقصود من هذه النماذج”.

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى