أعربت شركة OpenAI مؤخرًا عن قلقها من أن تقنياتها في الذكاء الاصطناعي (AI) وميزاتها الصوتية الواقعية قد تدفع الأفراد إلى تكوين روابط أقوى مع الروبوتات على حساب العلاقات البشرية. وفي استناد إلى أدبيات سابقة، أشارت الشركة إلى أن الدردشة مع الذكاء الاصطناعي كما لو كان شخصًا حقيقيًا قد تؤدي إلى ثقة في غير محلها، وأن جودة الصوت العالية لنموذج GPT-4o قد تفاقم هذا التأثير.
وفي تقرير حول سلامة النسخة الصوتية ChatGPT-4o، أفادت OpenAI بأن “التجسيم يعني إضفاء سلوكيات وخصائص إنسانية على كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي”، وفقًا لما نقلته وكالة فرانس برس. وأضافت الشركة: “قد يتزايد هذا الخطر نتيجة القدرات الصوتية لـGPT-4o، التي تعزز التفاعلات الشبيهة بالإنسان مع النموذج”.
وأوضحت الشركة، التي تتخذ من سان فرانسيسكو مقرًا لها، أنها لاحظت أن المختبرين كانوا يتحدثون إلى روبوت الدردشة بطرق تشير إلى وجود روابط مشتركة، مثل التعبير عن الأسف بصوت عالٍ لأنه كان آخر يوم لهم معًا.
وأكدت الشركة على ضرورة دراسة هذه الحالات، مهما كانت تبدو غير ضارة، لمعرفة كيف يمكن أن تتطور مع مرور الوقت.