قالت تقارير إخبارية إن ديف ويلنر، رئيس قسم الثقة والأمان في شركة OpenAI للذكاء الاصطناعي، قد تنحى عن منصبه، في وقت تواجه فيه الشركة الناشئة مزيداً من المشاكل حول الخصوصيّة والأمان من المشرّعين في أوروبا والولايات المتّحدة.
ويعمل ويلنر في مجال الثقة والأمان منذ ما يقرب من عقد من الزمان، وكان رئيساً للثقة والأمان في شركة “Otter” الناشئة لرعاية الأطفال قبل الانضمام إلى OpenAI، وقاد سياسة الثقة والمجتمع في “Airbnb”.
وفي هذا الإطار، أطلقت لجنة التجارة الفيدرالية الأميركيّة (FTC) تحقيقاً مع OpenAI الأسبوع الماضي لتحديد ما إذا كانت أساليب جمع بيانات التدريب لديها تنتهك حقوق المستهلك، فيما أعربت لجنة الأوراق المالية والبورصات عن قلقها من أن نماذج الذكاء الاصطناعي الكبيرة يمكن أن تخزن البيانات.
وإلى ذلك، وقعت “أوبن إي آي” وشركة ميتا بلاتفورمز ومايكروسوفت وغيرها من الأسماء الكبيرة في مجال الذكاء الاصطناعيّ التزاماً مع البيت الأبيض هذا الأسبوع للاستثمار في أبحاث الأمن والتمييز ونظام علامة مائية جديد لتحديد المحتوى الذي تمّ إنشاؤه بواسطة الذكاء الاصطناعيّ.
وكان سام ألتمان، الرئيس التنفيذي لشركة OpenAI صريحاً بشأن لوائح الذكاء الاصطناعي، داعياً الكونغرس الأمريكي إلى سن سياسات لضبط التكنولوجيا، وقد دعم مبادرة لطلب تراخيص لتطوير نماذج قوية للذكاء الاصطناعي.
وقال ويلنر في منشور عبر موقع لينكدإن إنه قرر تحقيق التوازن بين العمل مع الشركات الصغيرة ورؤية أطفاله يكبرون بعد حضوره أحدث مؤتمر “TrustCon”، وهو مؤتمر لمتخصّصي الثقة والسلامة.
وأضاف: “سمحت لي تلك اللحظة بالتوصّل إلى قرار ربما يبدو أنه غير منطقي بالنسبة إلى الكثير من الناس، ولكنه يبدو مناسباً للغاية لي، انتهى الأمر، على الرغم من أنه ليس خياراً يفعله الأشخاص في منصبي كثيراً، آمل أن تساعد هذه المشاركة في تطبيعها”.