
أعلن الملياردير الأمريكي إيلون ماسك أن نظام الذكاء الاصطناعي Grok التابع لشركته xAI سيحصل قريبًا على قدرات متقدمة تمكّنه من اكتشاف الفيديوهات المزيفة (Deepfakes) وتحديد مصدرها الأصلي على الإنترنت، في خطوة تهدف إلى مواجهة موجة الانتشار المتزايدة للمقاطع المُولَّدة بالذكاء الاصطناعي.
وتأتي تصريحات ماسك في ظل تصاعد المخاوف من انتشار ما يُعرف بـ«محتوى الذكاء الاصطناعي الرديء»، بعد أن أصبحت أدوات مثل Sora من OpenAI وGrok Imagine تتيح إنشاء مقاطع واقعية بالكامل بمجرد ضغطة زر، مما يثير تساؤلات حول موثوقية وأمان المحتوى المرئي في العصر الرقمي.
وخلال تفاعله على منصة إكس (X) مع أحد المستخدمين الذين عبّروا عن قلقهم من سرعة تطور تقنيات إنتاج الفيديوهات، أوضح ماسك أن فريقه يعمل على تطوير ميزة جديدة داخل Grok تتيح للنظام تحليل البيانات الرقمية للفيديوهات بهدف اكتشاف بصمات التوليد بالذكاء الاصطناعي، ومن ثم البحث عبر الإنترنت لتحديد الأداة أو الجهة التي أنشأتها.
وأشار ماسك إلى أن الهدف من هذه الخطوة هو استعادة الثقة في المحتوى البصري في وقت أصبحت فيه التقنيات الحديثة قادرة على إنتاج مقاطع يصعب على البشر تمييزها عن الحقيقة.
وفي توضيح تقني لاحق، كشف نظام Grok AI نفسه أن الميزة الجديدة ستعتمد على تحليل أنماط الضغط والتوليد الرقمي الدقيقة داخل الفيديوهات، والتي لا يمكن للعين البشرية التقاطها، ثم مطابقة تلك العلامات مع بصمات رقمية محفوظة على الويب لتحديد مصدر الفيديو بدقة.
ويأتي هذا التطور عقب الجدل الذي أثاره تطبيق Sora من OpenAI بعد طرحه في متجر Apple App Store، حيث أدى إلى زيادة انتشار مقاطع Deepfake التي تُحاكي أشخاصًا حقيقيين دون موافقتهم، مما دفع الشركة لاحقًا إلى فرض قيود جديدة تتيح للمستخدمين تحديد السيناريوهات التي لا يرغبون بالظهور فيها داخل الفيديوهات التي يصنعها الآخرون
روبوت Grok يثير الجدل بتصريحات حول الهولوكوست وشركة xAI تعتذر وتعد بالشفافية