دراسة تكشف آليات معالجة اللغة وتفتح آفاقًا جديدة في فهم الإدراك البشري

تعتبر اللغة من أكثر القدرات البشرية تعقيدًا وتميزًا، إذ تحتاج إلى تنسيق دقيق بين مناطق متعددة في الدماغ لتحويل الأفكار إلى كلمات، والكلمات إلى معانٍ قابلة للفهم. وعلى الرغم من الجهود العلمية المستمرة على مدى عقود لكشف أسرار هذه العملية، كان العلماء غالبًا ما يدرسون عناصر اللغة بشكل منفصل، مثل الأصوات والقواعد والمعاني، دون وجود نموذج موحد يدمج هذه العناصر معًا.

شبكة تك عربي

 

لكن مع تزاوج علم الأعصاب مع الذكاء الاصطناعي، ظهرت نتائج جديدة تكشف صورة أوضح لهذا اللغز المعقد. حيث ابتكر فريق من الباحثين نهجًا مبتكرًا يعتمد على الذكاء الاصطناعي لدراسة كيفية معالجة الدماغ للكلام أثناء المحادثات اليومية.

 

من خلال دمج تقنيات مثل التخطيط الكهربائي للدماغ (ECoG) مع نماذج التعلم العميق، تمكن الباحثون من تطوير نظام قادر على التنبؤ بالنشاط العصبي أثناء المحادثات الواقعية. هذا الإنجاز يمثل خطوة هامة في توسيع فهمنا لكيفية معالجة الدماغ للغة والإدراك البشري.

 

وقد اعتمد الباحثون في دراستهم على نموذج الذكاء الاصطناعي (Whisper) المبتكر من OpenAI، والذي يتميز بقدرته على تحويل الصوت إلى نص بدقة عالية. وساعد هذا النموذج في رسم خريطة دقيقة للنشاط الدماغي الذي يحدث خلال المحادثات، متفوقًا بذلك على النماذج التقليدية التي تركز على تحليل خصائص محددة لبنية اللغة.

 

اللافت في الدراسة هو أن نموذج (Whisper) لم يُبرمج للتعرف على القواعد اللغوية بشكل صريح، بل اعتمد على تحليل بيانات صوتية ونصية لتدريب النموذج، ليكتشف الهياكل اللغوية تلقائيًا بعد التدريب. هذه النتيجة تفتح بابًا لفهم أعمق لكيفية تطوير النموذج لقدرات معالجة اللغة بطريقة مشابهة لتطوير الإنسان لهذه المهارات.

 

تفاصيل الدراسة ونتائجها: نُشرت الدراسة في مجلة (Nature Human Behaviour)، وشملت أربعة مرضى يعانون من الصرع و يخضعون لعمليات جراحية لزرع أقطاب كهربائية في أدمغتهم لمراقبة النشاط الدماغي لأغراض طبية. وبموافقتهم، تم تسجيل محادثاتهم طوال مدة إقامتهم في المستشفى التي تراوحت بين عدة أيام وأسبوع، مما وفر أكثر من 100 ساعة من الصوت.

 

تم تجهيز المشاركين بعدد من الأقطاب الكهربائية، تراوحت بين 104 و255 قطبًا، لرصد النشاط الدماغي بشكل دقيق، مما مكن الباحثين من دراسة كيفية تفاعل مناطق الدماغ المختلفة أثناء التحدث والاستماع.

 

الكشف عن أسرار الدماغ باستخدام الذكاء الاصطناعي: توصلت الدراسة إلى أن مناطق الدماغ تتفاعل بطرق معقدة أثناء معالجة اللغة، حيث تساهم مناطق محددة في فهم المعاني أو معالجة الصوتيات. على سبيل المثال، أظهر “التلفيف الصدغي العلوي” نشاطًا أكبر عند التعامل مع المعلومات السمعية، بينما كان “التلفيف الجبهي السفلي” أكثر نشاطًا لفهم معاني الكلمات. كما أن المناطق الدماغية تنشط بتتابع، حيث يتم تنشيط المنطقة المسؤولة عن سماع الكلمات قبل التي تفسرها.

 

ربط الذكاء الاصطناعي بوظائف الدماغ: اعتمد الفريق البحثي على 80% من التسجيلات الصوتية والنصوص المصاحبة لتدريب نموذج (Whisper) للتنبؤ بالنشاط الدماغي بناءً على تلك البيانات. وبعد تحليل هذه البيانات، تبين أن النموذج يمكنه التنبؤ بدقة كبيرة بالنشاط الدماغي المصاحب للمحادثات التي لم تُدرَج ضمن بيانات التدريب، مما أظهر قدرة النموذج على محاكاة عمليات الدماغ البشري دون الحاجة إلى برمجة موجهة مباشرة.

 

آفاق وتحديات المستقبل: رغم النتائج الرائدة لهذه الدراسة، يرى الخبراء أن هناك حاجة لمزيد من الأبحاث لتأكيد أوجه التشابه بين العمليات التي يستخدمها الدماغ والنماذج اللغوية الاصطناعية. قد تؤدي هذه الأبحاث المستقبلية إلى تعزيز التقنيات التي تساعد الأشخاص ذوي صعوبات التواصل، كما قد تقدم إمكانيات جديدة في تطوير واجهات الدماغ والحاسوب.

 

أهمية هذه الدراسة: تكمن أهمية هذه الدراسة في مجموعة من النقاط الأساسية:

 

فهم أعمق للإدراك البشري: تسهم الدراسة في فهم كيفية معالجة الدماغ للغة والإدراك البشري.

تطوير تقنيات مساعدة: تتيح نتائج الدراسة إمكانية تطوير تقنيات جديدة لدعم الأشخاص ذوي صعوبات في التواصل.

تحسين نماذج الذكاء الاصطناعي: تساهم الدراسة في تحسين النماذج اللغوية الكبرى، مما يؤدي إلى زيادة دقتها وفعاليتها.

ربط الذكاء الاصطناعي بوظائف الدماغ: توضح العلاقة بين الذكاء الاصطناعي والدماغ البشري، مما يفتح آفاقًا جديدة في فهمنا لهذه العلاقة.

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى