تحديث جديد من OpenAI: ChatGPT يتخلى عن دور “الخبير” ويتحوّل إلى مصدر للمعرفة فقط

أعلنت شركة OpenAI في 29 أكتوبر 2025 عن تعديل جديد في سياسات استخدام منصة ChatGPT، أثار تفاعلًا واسعًا في الأوساط التقنية والمهنية حول العالم. القرار يقضي بتوقّف النظام عن تقديم استشارات مهنية مباشرة في مجالات الصحة والقانون والمال، والاكتفاء بتوفير معلومات عامة وتوضيحية فقط.
هذا التغيير لا يعني تقييد قدرات الذكاء الاصطناعي، بل يعكس تحولًا في فلسفة الاستخدام، من كونه “مستشارًا ذكيًا” يعتمد عليه الأفراد في قراراتهم الحساسة، إلى “مساعد معرفي” يقدّم محتوى تثقيفيًا وتحليليًا يساعد المستخدمين على الفهم لا اتخاذ القرار.
المنصة لم تغلق باب المعرفة، لكنها وضعت حدودًا واضحة لاستخدامها؛ إذ يمكنها شرح المفاهيم الطبية أو القانونية أو المالية العامة، لكنها لن تقدّم توصيات شخصية مثل تشخيص حالة، أو اقتراح استثمار، أو صياغة رأي قانوني مخصص.
وجاء القرار استجابة لعدة عوامل رئيسية، أبرزها تقليل المخاطر القانونية والتنظيمية، إذ إن أي خطأ في هذه المجالات قد يؤدي إلى أضرار مباشرة ومسؤوليات جسيمة. كما يهدف التحديث إلى الامتثال للقوانين الدولية الجديدة، ولا سيما قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، الذي يفرض رقابة صارمة على الأنظمة الذكية المستخدمة في القطاعات الحساسة. إضافة إلى ذلك، تسعى الشركة من خلال هذا التغيير إلى تعزيز الشفافية والموثوقية، بحيث يدرك المستخدم بوضوح متى يمكن الاعتماد على الذكاء الاصطناعي ومتى يجب الرجوع إلى مختص مرخّص.
أما على مستوى الأثر، فسيصبح ChatGPT بالنسبة للأفراد مرجعًا للفهم والتحليل، لا لاتخاذ القرارات الشخصية أو المهنية، بينما سيفتح المجال أمام تعاون أكبر بين الذكاء الاصطناعي والإنسان داخل منظومات العمل الطبي والقانوني والمالي. ومن جهة أخرى، سيدفع القرار الشركات التقنية إلى التركيز على حوكمة الذكاء الاصطناعي ووضع سياسات واضحة لمسؤولية الاستخدام وحدود الأتمتة.
بهذا التحديث، تؤكد OpenAI سعيها لبناء نموذج مسؤول ومستدام للذكاء الاصطناعي، يوازن بين حرية الوصول إلى المعرفة وحماية المستخدمين من المخاطر المحتملة في القرارات الحساسة.
ChatGPT ينمو كمصدر لحركة التجارة الإلكترونية لكنه لا يزال أقل تأثيراً على المبيعات







