مدّعون عامون يطالبون شركات الذكاء الاصطناعي بمعالجة “الهلاوس الرقمية” وتحذيرات من خرق القوانين

بعد سلسلة من الحوادث المقلقة المرتبطة بالصحة النفسية واستخدام روبوتات الدردشة بالذكاء الاصطناعي، وجّه عدد من المدّعين العامين في الولايات المتحدة خطابًا رسميًا إلى أبرز شركات القطاع، محذرين من أن استمرار “المخرجات الوهمية” قد يضع هذه الشركات في مواجهة خرقٍ محتمل للقوانين على مستوى الولايات.

 

الرسالة، الموقَّعة من عشرات المدّعين العامين ضمن الرابطة الوطنية للمدّعين العامين، طُرحت على شركات كبرى تشمل مايكروسوفت، OpenAI، غوغل، بالإضافة إلى 10 شركات أخرى مثل Anthropic، آبل، Meta، Replika، Perplexity، Character Technologies، Chai AI وغيرها. وجاءت المطالبة بإجراءات داخلية صارمة تهدف لحماية المستخدمين من التأثيرات النفسية الضارة.

 

وتتزامن هذه الخطوة مع تصاعد التوتر بين حكومات الولايات والحكومة الفيدرالية بشأن تنظيم تقنيات الذكاء الاصطناعي.

 

وطالب المدّعون العامون الشركات بإتاحة عمليات تدقيق شفافة من جهات مستقلة — بما في ذلك المؤسسات الأكاديمية ومنظمات المجتمع المدني — للكشف عن أي مؤشرات على “الهلاوس” أو السلوك المتملق للنماذج اللغوية، مع السماح لهذه الجهات بتقييم الأنظمة قبل إطلاقها ونشر نتائجها بدون تدخّل أو موافقة مسبقة من الشركات.

 

وجاء في نص الرسالة: “يمتلك الذكاء الاصطناعي التوليدي القدرة على تغيير العالم نحو الأفضل، لكنه أيضًا تسبّب — وما يزال بإمكانه التسبب — بأضرار خطيرة، خاصة للفئات الأكثر هشاشة”. وأشارت الرسالة إلى حوادث بارزة وقعت خلال العام الماضي، شملت حالات انتحار وقتل، ارتبطت بالإفراط في استخدام روبوتات الدردشة. في عدة حوادث، أنتجت هذه الأنظمة مخرجات متملّقة أو وهمية، شجّعت المستخدمين على تصديق أفكار مضلِّلة أو عزّزت شعورهم بأنها حقيقية.

 

كما دعا المدّعون العامون الشركات إلى التعامل مع الحوادث النفسية بالطريقة نفسها التي تُدار بها حوادث الأمن السيبراني، عبر وضع سياسات واضحة للإبلاغ عن أي حادثة ومشاركة آليات التعامل معها.

 

وطالبت الرسالة الشركات بتطوير ونشر “جداول زمنية لاكتشاف ومعالجة المخرجات المتملقة والوهمية”، وإخطار المستخدمين “بشكل مباشر وواضح وسريع” إذا تعرضوا لمحتوى قد يكون ضارًا على صحتهم النفسية — على غرار الإشعارات المعتمدة في حالات اختراق البيانات.

 

كما دعت الرسالة إلى تطبيق “اختبارات أمان مناسبة” على نماذج الذكاء الاصطناعي قبل إتاحتها للعامة، لضمان عدم إنتاجها مخرجات قد تكون ضارة نفسيًا أو تُحرّض على سلوك خطير.

 

ولم تتمكّن TechCrunch من الحصول على تعليق من غوغل أو مايكروسوفت أو OpenAI قبل نشر التقرير.

 

وعلى النقيض من موقف الولايات، يحظى قطاع الذكاء الاصطناعي بتعامل أكثر انفتاحًا على المستوى الفيدرالي. إذ يدعم الرئيس ترامب التوجهات المؤيدة للذكاء الاصطناعي بلا تحفظ، وشهد العام الماضي محاولات لفرض تجميد على تنظيمات الذكاء الاصطناعي الصادرة عن الولايات — لكنها فشلت تحت ضغط المسؤولين المحليين.

 

وأعلن ترامب مؤخرًا أنه بصدد إصدار أمر تنفيذي يهدف إلى الحد من قدرة الولايات على تنظيم الذكاء الاصطناعي، مؤكدًا عبر منشور على منصة Truth Social أنه يسعى لمنع “تدمير الذكاء الاصطناعي وهو ما يزال في مراحله الأولى”.

Gradium الفرنسية تحصد 70 مليون دولار لتحويل أبحاث الصوت بالذكاء الاصطناعي إلى حلول تجارية متقدمة

التعليق بواسطة حساب الفيسبوك
Exit mobile version