اختبار عالمي يكشف حدود وكلاء الذكاء الاصطناعي في وظائف الياقات البيضاء
كشف تقرير بحثي حديث عن نتائج لافتة لاختبار معياري عالمي يُعرف باسم Apex-Agents، صُمّم لقياس قدرة وكلاء الذكاء الاصطناعي على تنفيذ مهام واقعية لوظائف “الياقات البيضاء” في قطاعات حيوية مثل البنوك والاستشارات والقانون. وأظهرت النتائج أن أفضل النماذج المتاحة حالياً—ومن بينها Gemini 3 Flash من جوجل—لم تتجاوز نسبة نجاحها 24% في إنجاز المهام المطلوبة، ما يضع وعود الأتمتة الشاملة للشركات تحت تدقيق علمي وتقني صارم.
أسباب تعثر الوكلاء
بحسب موقع AI Agent Store وتقارير تقنية متخصصة، تعود المشكلة الأساسية إلى عجز الوكلاء عن التعامل بكفاءة مع المعلومات الموزعة عبر منصات وأدوات متعددة مثل Slack وGoogle Drive على نحو يحاكي الأداء البشري. ويعاني هؤلاء الوكلاء من “فقدان السياق” عند التنقل بين البيئات المختلفة، ما يقود إلى أخطاء جوهرية في اتخاذ القرار أو تنفيذ الإجراءات الإدارية، ويؤكد أن الوصول إلى مكان عمل مؤتمت بالكامل لا يزال بعيداً.
وتشير هذه المعطيات إلى أن التحول نحو ما يُعرف بـ“القوة العاملة السيليكونية” قد يستغرق وقتاً أطول بكثير مما روّجت له شركات التكنولوجيا الكبرى.
الأمن والامتثال… عائقان رئيسيان
أكدت التقارير أن 52% من قادة الشركات يرون أن المخاوف الأمنية ومتطلبات الامتثال تمثل العائق الأكبر أمام نشر وكلاء الذكاء الاصطناعي على نطاق واسع، إذ تشترط غالبية المؤسسات الإبقاء على رقابة بشرية كاملة لكل قرار يتخذه الذكاء الاصطناعي، حفاظاً على سلامة العمليات التجارية والمالية من الأخطاء غير المتوقعة.
تحديات الموثوقية في البيئات المعقدة
أظهرت الاختبارات أيضاً أن الذكاء الاصطناعي يواجه صعوبات كبيرة في تنسيق مهام متعددة تتطلب فهماً دلالياً متغيراً، ما يجعل الاعتماد عليه في أعمال حساسة—كمراجعة العقود القانونية أو التحليلات المصرفية—مخاطرة تقنية غير محسوبة في الوقت الراهن.
الحوكمة قبل القدرات
يتفق خبراء الأمن السيبراني على أن الموثوقية والحوكمة تتقدمان على القدرات الحسابية الخام. فبناء وكلاء فعّالين يتطلب إعادة تصميم العمليات التشغيلية داخل المؤسسات، بدلاً من الاكتفاء بأتمتة الإجراءات القائمة، وذلك لضمان أعلى مستويات الدقة والأمان الرقمي.








