كيف تمنع ميتا من استغلال بياناتك لتدريب نماذج الذكاء الاصطناعي؟
الشركة تضيف أداة إلغاء الاشتراك مع انطلاق تقنية الذكاء الاصطناعي التوليدية عبر التكنولوجيا
أصبح بإمكان مستخدمي فيسبوك الآن حذف بعض المعلومات الشخصية التي يمكن أن تستخدمها الشركة في تدريب نماذج الذكاء الاصطناعي التوليدي.
وقامت ميتا بتحديث قسم في مركز مساعدة فيسبوك على موقعها على الويب هذا الأسبوع ليشمل نموذجًا بعنوان “حقوق بيانات الذكاء الاصطناعي التوليدي”، والذي يسمح للمستخدمين “بإرسال طلبات تتعلق بمعلومات الطرف الثالث الخاصة بك المستخدمة في التدريب على نماذج الذكاء الاصطناعي التوليدي”.
تضيف الشركة أداة إلغاء الاشتراك مع انطلاق تقنية الذكاء الاصطناعي التوليدية عبر التكنولوجيا، حيث تقوم الشركات بإنشاء روبوتات دردشة أكثر تقدمًا، وتحويل النص البسيط إلى إجابات وصور متطورة. يمنح ميتا الأشخاص خيار الوصول إلى أو تغيير أو حذف أي بيانات شخصية تم تضمينها في مصادر بيانات الطرف الثالث المختلفة التي تستخدمها الشركة لتدريب نماذج لغتها الموسعة ونماذج الذكاء الاصطناعي ذات الصلة.
في النموذج، تشير ميتا إلى معلومات الطرف الثالث على أنها بيانات “متاحة للجمهور على الإنترنت أو المصادر المرخصة”. وتقول الشركة إن هذا النوع من المعلومات يمكن أن يمثل بعضًا من “مليارات القطع من البيانات” المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية التي “تستخدم التنبؤات والأنماط لإنشاء محتوى جديد”.
وفي منشور مدونة ذي صلة حول كيفية استخدام البيانات للذكاء الاصطناعي التوليدي، تقول ميتا إنها تجمع المعلومات العامة على الويب بالإضافة إلى بيانات الترخيص من مقدمي الخدمات الآخرين. وقال ميتا إن منشورات المدونة، على سبيل المثال، يمكن أن تتضمن معلومات شخصية، مثل اسم شخص ما ومعلومات الاتصال به.
لا يأخذ النموذج في الاعتبار نشاط المستخدم على المنصات المملوكة لـ ميتا، سواء كانت تعليقات Facebook أو صور Instagram، لذلك من الممكن أن تستخدم الشركة بيانات الطرف الأول هذه لتدريب نماذج الذكاء الاصطناعي التوليدية الخاصة بها.
قال متحدث باسم ميتا إن أحدث نموذج لغة كبير مفتوح المصدر Llama 2 للشركة “لم يتم تدريبه على بيانات مستخدم ميتا، ولم نطلق أي ميزات مفتوحة للمستهلك تخض الذكاء الاصطناعي التوليدي على أنظمتنا حتى الآن”.
وأضاف المتحدث: “اعتمادًا على المكان الذي يعيش فيه الأشخاص، قد يكونون قادرين على ممارسة حقوقهم في موضوع البيانات والاعتراض على استخدام بيانات معينة لتدريب نماذج الذكاء الاصطناعي لدينا”، في إشارة إلى قواعد خصوصية البيانات المختلفة خارج الولايات المتحدة والتي تمنح المستهلكين مزيدًا من التحكم في البيانات التي يمكن لشركات التكنولوجيا استخدامها بخصوص بياناتهم الشخصية.
مثل العديد من أقرانها في مجال التكنولوجيا، بما في ذلك Microsoft وOpenAI وAlphabet الشركة الأم لشركة Google، تجمع ميتا كميات هائلة من بيانات الطرف الثالث لتدريب نماذجها وبرامج الذكاء الاصطناعي ذات الصلة.
وقالت ميتا في منشور المدونة: “لتدريب نماذج فعالة لفتح هذه التطورات، هناك حاجة إلى قدر كبير من المعلومات من المصادر المتاحة للجمهور والمرخصة”. وأضافت الشركة أن “استخدام المعلومات العامة والبيانات المرخصة يصب في مصلحتنا، ونحن ملتزمون بالشفافية بشأن الأسس القانونية التي نستخدمها لمعالجة هذه المعلومات”.
ولكن في الآونة الأخيرة، شكك بعض المدافعين عن خصوصية البيانات من ممارسة تجميع كميات هائلة من المعلومات المتاحة للجمهور لتدريب نماذج الذكاء الاصطناعي.
في الأسبوع الماضي، أصدر اتحاد من وكالات حماية البيانات من المملكة المتحدة وكندا وسويسرا ودول أخرى بيانًا مشتركًا إلى ميتا وألفابيت وتيك توك ومنصة إكس وشركة مايكروسوفت وآخرين حول جمع البيانات وحماية خصوصية المستخدم.
كان الهدف من الرسالة تذكير شركات التواصل الاجتماعي والتكنولوجيا بأنها تظل خاضعة لمختلف قوانين حماية البيانات والخصوصية في جميع أنحاء العالم و”أنهم يحمون المعلومات الشخصية التي يمكن الوصول إليها على مواقعهم الإلكترونية من الاستغلال”.
وقالت المجموعة في البيان: “يمكن للأفراد أيضًا اتخاذ خطوات لحماية معلوماتهم الشخصية من السرقة، ولدى شركات التواصل الاجتماعي دور تلعبه في تمكين المستخدمين من التعامل مع خدماتها بطريقة تحمي الخصوصية”.
وإليك كيفية حذف بعض بيانات Facebook الخاصة بك المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية:
• انتقل إلى نموذج “حقوق بيانات الذكاء الاصطناعي التوليدي” في صفحة سياسة خصوصية ميتا حول الذكاء الاصطناعي التوليدي.
• انقر على الرابط “معرفة المزيد وإرسال الطلبات هنا”.
• اختر من بين الخيارات الثلاثة حيث تقول ميتا إنها “توصف بشكل أفضل مشكلتك أو اعتراضك”.
يتيح الخيار الأول للأشخاص الوصول إلى أي من معلوماتهم الشخصية أو تنزيلها أو تصحيحها، والتي تم جمعها من مصادر خارجية تُستخدم لتدريب نماذج الذكاء الاصطناعي التوليدية. ومن خلال اختيار الخيار الثاني، يمكنهم حذف أي من المعلومات الشخصية من مصادر بيانات الطرف الثالث المستخدمة للتدريب. والخيار الثالث هو للأشخاص الذين “لديهم مشكلة مختلفة”.
بعد تحديد أحد الخيارات الثلاثة، سيحتاج المستخدمون إلى اجتياز اختبار فحص الأمان. وعلق بعض المستخدمين بأنهم غير قادرين على إكمال النموذج بسبب ما يبدو أنه خطأ برمجي.