اتفاقيات جديدة لتعزيز سلامة الذكاء الاصطناعي بين شركات التكنولوجيا ومعهد سلامة الذكاء الاصطناعي الأمريكي
اتفقت شركتا OpenAI وAnthropic على مشاركة نماذج الذكاء الاصطناعي قبل وبعد إصدارها مع معهد سلامة الذكاء الاصطناعي الأمريكي. هذا المعهد، الذي أُنشئ بموجب أمر تنفيذي أصدره الرئيس بايدن في عام 2023، سيوفر تعليقات متعلقة بالسلامة للشركات لتحسين نماذجها. وقد أشار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إلى هذه الاتفاقية في وقت سابق من هذا الشهر.
على الرغم من أن معهد سلامة الذكاء الاصطناعي الأمريكي لم يعلن عن تعاون مع شركات أخرى تعمل في مجال الذكاء الاصطناعي، فقد صرح متحدث باسم Google لموقع Engadget أن الشركة تجري محادثات مع المعهد وستفصح عن المزيد من المعلومات عندما تكون متاحة. وتجدر الإشارة إلى أن Google بدأت هذا الأسبوع بطرح نماذج محدثة لروبوتات الدردشة ومولدات الصور لـ Gemini.
وقد أكدت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي الأمريكي، في بيان لها: “إن السلامة هي عامل أساسي لدفع الابتكار التكنولوجي إلى الأمام. ومع هذه الاتفاقيات، نتطلع إلى بدء تعاوننا الفني مع Anthropic وOpenAI لتعزيز علم سلامة الذكاء الاصطناعي. هذه الاتفاقيات تمثل خطوة أولى، لكنها تعتبر إنجازًا مهمًا في سعينا لإدارة مستقبل الذكاء الاصطناعي بشكل مسؤول”.
يُعتبر معهد سلامة الذكاء الاصطناعي الأمريكي جزءًا من المعهد الوطني للمعايير والتكنولوجيا (NIST)، ويعمل على إنشاء ونشر مبادئ توجيهية واختبارات معيارية وأفضل الممارسات لتقييم أنظمة الذكاء الاصطناعي التي قد تكون خطرة.
وقد صرحت نائبة الرئيس كامالا هاريس في أواخر عام 2023، عقب إنشاء الوكالة، بأن “الذكاء الاصطناعي يمتلك القدرة على تحقيق فوائد عظيمة، ولكنه يمتلك أيضًا القدرة على التسبب في أضرار جسيمة، بدءًا من الهجمات السيبرانية المدعومة بالذكاء الاصطناعي إلى الأسلحة البيولوجية التي قد تعرض حياة الملايين للخطر”.
تُعد هذه الاتفاقية الأولى من نوعها، وهي تتم من خلال مذكرة تفاهم غير ملزمة تمنح الوكالة حق الوصول إلى “النماذج الجديدة الرئيسية” لكل شركة قبل وبعد إصدارها العام. وتُعتبر هذه الاتفاقيات أبحاثًا تعاونية لتقييم القدرات والمخاطر المرتبطة بالذكاء الاصطناعي، وسيشارك معهد سلامة الذكاء الاصطناعي الأمريكي في هذا الجهد مع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة.
يأتي هذا التطور في وقت تسعى فيه الهيئات التنظيمية الفيدرالية والمحلية إلى وضع حواجز حماية للذكاء الاصطناعي في ظل التطور السريع لهذه التكنولوجيا. في هذا السياق، وافق مجلس ولاية كاليفورنيا هذا الأسبوع على مشروع قانون سلامة الذكاء الاصطناعي (SB 10147)، الذي يفرض اختبارات السلامة على نماذج الذكاء الاصطناعي التي تتجاوز تكلفتها 100 مليون دولار أو تتطلب قدرات حوسبية كبيرة. كما يلزم مشروع القانون شركات الذكاء الاصطناعي بتوفير مفاتيح إيقاف للنماذج في حال أصبحت “غير عملية أو لا يمكن السيطرة عليها”.
على عكس الاتفاقية غير الملزمة مع الحكومة الفيدرالية، يتمتع مشروع قانون كاليفورنيا بقوة تنفيذية، حيث يمنح المدعي العام للولاية صلاحية مقاضاة مطوري الذكاء الاصطناعي الذين لا يلتزمون بالمتطلبات، خصوصًا في حالات التهديدات الكبيرة.
ومع ذلك، يحتاج مشروع القانون إلى تصويت إضافي وتوقيع من الحاكم جافين نيوسوم، الذي سيكون لديه حتى 30 سبتمبر لاتخاذ القرار النهائي.
Hotshot مولد فيديو بالذكاء الاصطناعي يقدم بديلاً مجانيًا للنماذج الكبرى