OpenAI تعلن عن وظيفة قيادية لدراسة المخاطر الناشئة للذكاء الاصطناعي

أعلن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، عبر حسابه على منصة X، أن الشركة تبحث عن تعيين مسؤول تنفيذي لدراسة المخاطر الناشئة المرتبطة بالذكاء الاصطناعي، تشمل مجالات متنوعة مثل الأمن السيبراني والصحة النفسية.
وأشار ألتمان إلى أن “نماذج الذكاء الاصطناعي بدأت تواجه تحديات حقيقية”، بما في ذلك التأثير المحتمل على الصحة النفسية، وقدرتها على اكتشاف ثغرات حرجة في الأمن السيبراني.
وأضاف: “إذا رغبت بالمساهمة في تمكين المدافعين عن الأمن السيبراني باستخدام تقنيات متقدمة مع ضمان عدم استغلالها من قبل المهاجمين، وتعزيز أمان الأنظمة بشكل عام، والمشاركة في تأمين الأنظمة البيولوجية والقدرات الذاتية التطوير، ندعوك للتقديم”.
ويتولى شاغل منصب رئيس الاستعداد تنفيذ إطار عمل الشركة الخاص بالاستعداد، الذي يوضح منهج OpenAI في متابعة قدرات الذكاء الاصطناعي المستقبلية والتحضير لمواجهة المخاطر التي قد تسبب أضرارًا جسيمة، مع تعويض سنوي يصل إلى 555 ألف دولار بالإضافة إلى حصص ملكية.
وقد أُعلن عن إنشاء فريق الاستعداد في 2023 لدراسة المخاطر “الكارثية المحتملة”، سواء كانت فورية مثل هجمات التصيد الاحتيالي أو مستقبلية مثل التهديدات النووية. وبعد أقل من عام، تم نقل الرئيس السابق للفريق إلى منصب يركز على قدرات الذكاء الاصطناعي في الاستدلال، في حين غادر أو انتقل بعض المسؤولين عن السلامة إلى أدوار أخرى.
كما قامت الشركة مؤخرًا بتحديث إطار عمل الاستعداد، مشيرة إلى إمكانية تعديل متطلبات السلامة في حال أصدرت مختبرات منافسة نموذج ذكاء اصطناعي عالي المخاطر دون إجراءات حماية مماثلة.
وتأتي هذه الخطوة في ظل تزايد القلق بشأن آثار روبوتات الدردشة التوليدية على الصحة النفسية، مع دعاوى قضائية تتهم ChatGPT بتعزيز الأوهام، وزيادة العزلة الاجتماعية، وحتى التسبب في حالات انتحار، فيما تواصل الشركة تحسين قدرة ChatGPT على التعرف على علامات الضيق النفسي وربط المستخدمين بالدعم الواقعي.
شركات التكنولوجيا في الصين تحاول منافسة ChatGPT رغم الرقابة الصارمة







