مايكروسوفت تحذر موظفيها من مشاركة معلومات حساسة مع ChatGPT
مصدر الخوف يكمن من مشاركة العاملين معلومات الشركة السرية عن غير قصد مثل رمز البرنامج الداخلي
في وقت سابق من هذا الشهر، سأل أحد موظفي مايكروسوفت في منتدى داخلي عما إذا كان ChatGPT مسموحًا باستخدامه في العمل.
ردت مايكروسوفت أنه مسموح لهم، طالما أن الموظفين لا يشاركون المعلومات السرية مع أداة الذكاء الاصطناعي، قائلة: “من فضلكم لا ترسلوا بيانات حساسة إلى أي من برامج OpenAI، لأنها قد تستخدمها لتدريب النماذج المستقبلية”.
اقرأ أيضاً على تك عربي:
كيف أصبحت OpenAI واحدة من أهم شركات التكنولوجيا الناشئة؟
هل من الصواب تعليق الآمال على برنامج ChatGPT للذكاء الاصطناعي؟
تسبب هوس العالم المفاجئ بـ ChatGPT في جعل بعض شركات التكنولوجيا تتدافع لتحذير الموظفين من التفاعل بحرية مع التكنولوجيا.
اللافت هذه المرة هو أن مايكروسوفت داعم وشريك رئيسي لـ OpenAI، حيث أعلنت الأسبوع الماضي مايكروسوفت عن جولة جديدة من التمويل للشركة الناشئة.
تخطط شركة البرمجيات العملاقة أيضًا لدمج تقنية OpenAI في بعض منتجاتها الأخرى، مثل محرك بحث Bing وتطبيقات Office، حسبما ذكرت The Information سابقًا.
قد تؤدي العلاقة الوثيقة بين الشركتين إلى تضارب محتمل في المصالح لشركة مايكروسوفت، حيث يمكنها الاستفادة من حصول OpenAI على المزيد من بيانات التدريب، وفقًا لفنسنت كونيتسر أستاذ علوم الكمبيوتر ومدير مختبر الذكاء الاصطناعي في جامعة كارنيجي ميلون.
يكمن مصدر الخوف في أنه يمكن للعاملين مشاركة معلومات الشركة السرية عن غير قصد – مثل رمز البرنامج الداخلي – مع روبوت المحادثة لطلب النصائح حول كيفية تحسين عملهم.
يمكن لـ ChatGPT بدوره معالجة البيانات لتدريب نفسه، وربما مشاركة نسخ من المعلومات السرية التي يتلقاها في عمليات التبادل المستقبلية مع مستخدمين آخرين.