4 مخاطر لاستخدام روبوت المحادثة ChatGPT على خصوصية الشركات

يطرح الاستخدام المتزايد لروبوتات المحادثة في مكان العمل سؤالاً حاسماً: هل هذه الروبوتات مؤهلة للاستخدام مع بيانات الشركات الحساسة؟

يعتمد الكثير من الموظفين اليوم على النماذج اللغوية القائمة على الشبكات العصبونية في عملهم مثل روبوت المحادثة ChatGPT، حيث كشف استطلاع أجرته كاسبرسكي في روسيا أن 11% من المشاركين استخدموا روبوتات المحادثة، مع اعتقاد قرابة 30% منهم بقدرتها على استبدال الوظائف في المستقبل.

وتشير استطلاعات أخرى إلى أن 50% من موظفي المكاتب في بلجيكا و65% منهم في المملكة المتحدة يعتمدون على روبوت المحادثة ChatGPT. كما يشير رواج كلمة «ChatGPT» في سجلات البحث ضمن Google Trends إلى استخدام واضح للأداة خلال أيام الأسبوع، الذي قد يكون مرتبطاً باستخدام الموظفين له أثناء العمل.

على أي حال، يطرح الاستخدام المتزايد لروبوتات المحادثة في مكان العمل سؤالاً حاسماً: هل هذه الروبوتات مؤهلة للاستخدام مع بيانات الشركات الحساسة؟ للتوصُل إلى الإجابة، حدد باحثو كاسبرسكي أربعة مخاطر رئيسية قد تتعرض لها الشركات عند استخدام موظفيها روبوت ChatGPT، وهي:

تسرُّب البيانات أو الاختراق من جهة المزود

على الرغم من أن مشغلي روبوتات المحادثة القائمة على النماذج اللغوية الكبيرة هم اللاعبون الأكبر في المجال التقني، فهي غير منيعة ضد الاختراق أو تسرُّب البيانات. فعلى سبيل المثال، تمكن مستخدمو أداة ChatGPT في إحدى الحوادث من رؤية الرسائل في سجلات محادثة تعود لمستخدمين آخرين.

تسريب البيانات عبر روبوتات المحادثة

نظرياً، يمكن استخدام الرسائل التي يتم تبادلها مع روبوتات المحادثة لتدريب النماذج اللغوية المستقبلية. إذ تميل النماذج اللغوية الكبيرة أحياناً إلى «التذكر غير المقصود» حيث تستحضر سلاسل فريدة من البيانات مثل أرقام الهواتف التي لا تعمل على تحسين جودة النموذج، ولكنها تشكل مخاطر على الخصوصية، فأي بيانات في مجموعة البيانات المُستخدَمة لتدريب هذه النماذج قد يصل إليها مستخدمون آخرون سواء عن قصد أو عن غير قصد.

العميل الخبيث

قد يلجأ الأشخاص في الأماكن التي تُحظر فيها الخدمات الرسمية، مثل ChatGPT، إلى بدائل غير رسمية من برامج أو مواقع إلكترونية أو روبوتات محادثة أخرى، ويقومون بتحميل برمجيات خبيثة تتظاهر بأنها عميل أو تطبيق لا وجود له في الحقيقة.

اختراق الحسابات

يمكن للمهاجمين الدخول إلى حسابات الموظفين، والوصول إلى بياناتهم، عبر هجمات التصيد الاحتيالي أو بيانات تسجيل الدخول. حيث تجد خدمة Kaspersky Digital Footprint Intelligence تعرض بانتظام منشورات في منتديات الإنترنت المظلم، والتي تبيع إمكانية الوصول إلى حسابات مختلفة على منصات روبوتات المحادثة.

وتلخيصاً لما سبق، قد تعرِّض روبوتات المحادثة خصوصية كل من المستخدمين والشركات للخطر. لذا، على المطورين المسؤولين أن يوضحوا كيفية استخدامهم للبيانات عند تدريب نموذجهم اللغوي في سياسة الخصوصية الخاصة بهم.

ويُظهر تحليل أجرته كاسبرسكي لروبوتات المحادثة الشائعة (بما في ذلك ChatGPT، وChatGPT API، وAnthropic Claude، وBing Chat، وBing Chat Enterprise، وYou.com، وGoogle Bard، وتطبيق Genius من تطوير Alloy Studios) أن معايير الأمن والخصوصية أعلى في روبوتات المحادثة الموجهة للعملاء من الشركات (B2B) نظراً للمخاطر الأكبر التي تتعرض إليها معلومات الشركات.

اقرأ أيضا

عطل يصيب روبوت الدردشة ChatGPT في مختلف دول العالم

أمازون تطور نموذجًا لغويًا جديدًا يسمى Olympus لمواجهة ChatGPT و Bard

وبالتالي، تركز الشروط والأحكام الخاصة باستخدام البيانات، وجمعها، وتخزينها، ومعالجتها بشكل أكبر على الحماية في ذلك المجال مقارنة بالخدمات الموجهة للمستهلكين الأفراد (B2C). في هذا التحليل، لا تقوم الأدوات الموجهة للشركات في هذا التحليل بحفظ سجلات المحادثة تلقائياً عادةً، وفي بعض الحالات، لا ترسل أي بيانات إلى خوادم الشركة، حيث يعمل روبوت المحادثة محلياً في شبكة العميل.

وقالت آنا لاركينا، خبيرة الأمن والخصوصية لدى كاسبرسكي: «بعد فحص المخاطر المحتملة المرتبطة باستخدام روبوتات المحادثة المستندة إلى النماذج اللغوية الكبيرة للأغراض المهنية، وجدنا أن خطر تسرُّب البيانات الحساسة يكون أعلى عند استخدام الموظفين للحسابات الشخصية أثناء العمل. مما يجعل رفع وعي الموظفين بمخاطر استخدام روبوتات المحادثة أولوية للشركات. فمن ناحية، يحتاج الموظفون إلى معرفة البيانات التي تعتبر سرية أو شخصية، أو تعد سراً مهنياً، ولماذا لا يجب إدخالها إلى روبوت محادثة. ومن ناحية أخرى، يجب على الشركة وضع قواعد واضحة لاستخدام مثل هذه الخدمات، وذلك إن كانت تسمح باستخدامها أصلاً».

التعليق بواسطة حساب الفيسبوك
Exit mobile version