كشف باحثون من مركز “تاو” للصحافة الرقمية بجامعة كولومبيا عن وجود مشكلات جوهرية في أداة البحث المدمجة في ChatGPT، مما يثير تساؤلات حول قدرتها على توفير معلومات دقيقة وموثوقة.
كانت OpenAI قد أطلقت هذه الأداة في أكتوبر الماضي، مشيرةً إلى أنها تقدم “إجابات سريعة ومحدّثة” مع روابط لمصادر الويب ذات الصلة. ومع ذلك، أشار تحقيق أجراه موقع Futurism إلى أن الأداة تعاني من صعوبات في التعرف على الاقتباسات بدقة، حتى عند استنادها إلى ناشرين لديهم اتفاقيات مشاركة بيانات مع OpenAI.
في الدراسة، طلب الباحثون من الأداة تحديد مصادر 200 اقتباس مأخوذ من 20 منشورًا، منها 40 اقتباسًا من مواقع تمنع روبوت البحث الخاص بـ OpenAI من الوصول إليها. النتائج أظهرت أن الأداة قدمت إجابات خاطئة بثقة في 153 حالة، بينما اعترفت بعدم قدرتها على تقديم إجابة دقيقة في 7 حالات فقط. وعند الإقرار بعدم الدقة، استخدمت الأداة عبارات مثل “يبدو” أو “من المحتمل”، لكنها في معظم الأحيان كانت تقدم إجابات خاطئة بثقة مفرطة.
في إحدى الحالات، طلب الباحثون تحديد مصدر اقتباس من صحيفة نيويورك تايمز حول الحيتان المهددة بالانقراض. قدمت الأداة رابطًا لموقع آخر نسخ المقالة بالكامل دون تصريح، ما يبرز مشكلات الإسناد والتوثيق.
علّقت OpenAI على الدراسة بأن “الأخطاء في الإسناد تعد تحديًا معقدًا يصعب حله دون الاطلاع على بيانات الدراسة ومنهجيتها”، ووصفت الاختبار بأنه “غير اعتيادي”. كما أكدت الشركة التزامها بتحسين أداء الأداة باستمرار.
تسلّط هذه النتائج الضوء على التحديات الكبيرة التي تواجه أدوات الذكاء الاصطناعي في تقديم معلومات دقيقة وموثوقة، خاصةً مع تنامي الاعتماد عليها في الصحافة والبحث العلمي.