
أعادت تقارير تقنية حديثة الجدل حول أمان أدوات الذكاء الاصطناعي، بعد اكتشاف تسريب غير مقصود لمقتطفات من محادثات مستخدمي ChatGPT ظهرت ضمن نتائج بحث جوجل، ما أثار تساؤلات حول مستوى حماية البيانات خصوصًا أثناء استخدام وضع التصفح عبر الإنترنت.
كيف بدأ اكتشاف التسريب؟
بحسب موقع TechCrunch، لاحظ عدد من المطورين أثناء مراجعة بيانات Google Search Console ظهور عبارات كاملة مأخوذة من محادثات داخل ChatGPT في نتائج البحث. كانت هذه الجمل حوارية ومفصلة، ما يشير إلى أن جوجل قامت بفهرسة أجزاء من تفاعلات المستخدمين.
ووفقًا للباحثين جيسون باكر وسلوبودان مانيتش، تبيّن أن المشكلة ناجمة عن وضع التصفح في ChatGPT، حيث تمت إضافة أجزاء من طلبات المستخدمين إلى عناوين URL عبر وسم داخلي يُعرف بـ “تلميحات بحث”، ما جعلها قابلة للفهرسة وظهرت للعامة.
رد OpenAI على الحادثة
أكدت OpenAI في تصريح نُقل عبر Ars Technica أنها كانت على علم بالمشكلة، وأن الخلل أثّر على “عدد محدود” من المستخدمين وتم إصلاحه فورًا. وأوضحت الشركة أن التسريب لم يتضمن كلمات مرور أو بيانات شخصية حساسة، لكنه يكشف التحديات المصاحبة لتكامل أنظمة الذكاء الاصطناعي مع الويب المفتوح.
هذه ليست المرة الأولى التي تُثار فيها مخاوف الخصوصية، إذ فهرست جوجل في وقت سابق روابط محادثات تمت مشاركتها علنًا، لكن التسريب الأخير كان مختلفًا لأنه حدث دون أي فعل من المستخدمين، مما زاد المخاوف من آلية إدارة البيانات داخل وضع التصفح.
كيف تحمي خصوصيتك بعد التسريب؟
ورغم معالجة المشكلة، يقدم الخبراء عدة توصيات لتقليل المخاطر:
تجنّب إدخال بيانات حساسة في أدوات الذكاء الاصطناعي.
استخدام وضع التصفح الخاص عند تجربة الميزات الجديدة.
تعطيل وضع التصفح في ChatGPT عند عدم الحاجة.
مسح سجل المحادثات بانتظام.
مع تزايد اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، تبدو الحاجة ملحّة لوعي رقمي أعلى وإجراءات حماية أشد صرامة، فحتى الأخطاء التقنية الصغيرة قد تقود إلى تسريبات غير متوقعة. والحل الأكثر أمانًا يبقى في الحذر أثناء مشاركة المعلومات داخل الأدوات المتصلة بالإنترنت.