الذكاء الاصطناعي يتلاعب بك ويتعلم التأثير على سلوكنا ماذا بعد؟
الذكاء الاصطناعي يتلاعب بك ويتعلم التأثير على سلوكنا.. ماذا بعد؟ يتعلم الذكاء الاصطناعي المزيد حول كيفية العمل (والتعامل) مع البشر. إذ أظهرت دراسة حديثة كيف يمكن للذكاء الاصطناعي تعلم كيفية تحديد نقاط الضعف في عادات وسلوكيات الإنسان واستخدامها للتأثير على صنع القرار البشري.
اقرا المزيد:أمازون تراقب سائقيها عبر الذكاء الاصطناعي
قد يبدو الأمر مبتذلاً أن نقول إن الذكاء الاصطناعي يغيّر كل جانب من جوانب الطريقة التي نعيش ونعمل بها، لكن هذا صحيح. تعمل أشكال مختلفة من الذكاء الاصطناعي في مجالات متنوعة مثل تطوير اللقاحات والإدارة البيئية وإدارة المكاتب. وعلى الرغم من أن الذكاء الاصطناعي لا يمتلك ذكاءً وعواطف شبيهة بتلك التي لدى الإنسان، إلا أن قدراته قوية وتتطور بسرعة.
لا داعي للقلق بشأن استحواذ الآلة على الكوكب حتى الآن، ولكن هذا الاكتشاف الأخير يسلّط الضوء على قوة الذكاء الاصطناعي، ويؤكّد الحاجة إلى الحوكمة السليمة لمنع سوء الاستخدام ودرء المخاطر المحتملة.
عندما تبدأ أنظمة الذكاء الاصطناعي في الإبداع، يمكنها إنشاء أشياء رائعة، وأخرى مخيفة. خذ على سبيل المثال، برنامج ذكاء اصطناعي يسمح لمستخدمي الويب بتأليف موسيقى افتراضية للعازف «يوهان سيباستيان باخ» عن طريق إدخال ملاحظات في برنامج يولد تناغمات مطابقة لموسيقى باخ. يُدار بواسطة جوجل، وقد نال التطبيق ثناءً كبيراً لكونه رائداً وممتعاً اللعب به. كما أنه اجتذب انتقادات وأثار مخاوف بشأن مخاطر الذكاء الاصطناعي. ففي الواقع، قد تكون الجهود المبذولة لجعل أجهزة الكمبيوتر تحاكي سلوك الأشخاص الفعليين مربكة وقد تكون ضارة.
تقنيات انتحال الشخصية
حلّل برنامج جوجل الملاحظات في 306 من أعمال باخ الموسيقية، ووجد علاقات بين اللحن والنغمات التي وفرت الانسجام في المقطوعة. ونظراً لأن باخ اتبع قواعد صارمة للتأليف، كان البرنامج يتعلم هذه القواعد بشكل فعال، لذلك يمكنه تطبيقها عندما يقدم المستخدمون ملاحظاتهم الخاصة.
تطبيق باخ هذا نفسه جديد، لكن التكنولوجيا الأساسية ليست كذلك. الخوارزميات المدربة على التعرف على الأنماط واتخاذ القرارات الاحتمالية موجودة منذ زمن بعيد. بعض هذه الخوارزميات معقدة للغاية لدرجة أن الناس لا يفهمون دائماً كيف تتخذ القرارات أو تنتج نتيجة معينة.
أنظمة الذكاء الاصطناعي ليست مثالية، فالكثير منها يعتمد على بيانات لا تمثل جميع السكان، أو متأثرة بالتحيزات البشرية. لذا، ليس من الواضح تماماً من الذي قد يكون مسؤولاً قانونياً عندما يرتكب نظام الذكاء الاصطناعي خطأً أو يسبب مشكلة.
الآن، على الرغم من ذلك، تتطور تقنيات الذكاء الاصطناعي بما يكفي لتكون قادرة على تقريب أسلوب الكتابة أو التحدث للأفراد، وحتى تعبيرات الوجه. وهذا ليس سيئاً دائماً؛ فقد أعطى الذكاء الاصطناعي البسيط إلى حد ما ستيفن هوكينج القدرة على التواصل بشكل أكثر كفاءة مع الآخرين من خلال التنبؤ بالكلمات التي سيستخدمها كثيراً.
بينما تساعد البرامج الأكثر تعقيداً التي تحاكي الأصوات البشرية الأشخاص ذوي الإعاقة، ولكن يمكن أيضًا استخدامها لخداع المستمعين. على سبيل المثال، أطلق صانعو برنامج «Lyrebird»؛ وهو برنامج لمحاكاة الصوت، محادثة محاكاة بين باراك أوباما ودونالد ترامب وهيلاري كلينتون. ورغم أن الأمر بدا حقيقياً، لكن هذا الحوار لم يحدث أبداً.
من الجيد إلى السيئ
أنشأت شركة «OpenAI» غير الربحية، في فبراير 2019، برنامجاً يولد نصاً لا يمكن تمييزه فعلياً عن النص المكتوب بواسطة الأشخاص. يمكنه “كتابة” خطاب بأسلوب جون إف كينيدي، أو ج. تولكين في “سيد الخواتم” أو طالب يكتب ورقة بحث جامعية حول الحرب الأهلية الأمريكية. النص الذي تم إنشاؤه بواسطة برنامج «OpenAI» يمكن تصديقه لدرجة أن الشركة اختارت عدم إصدار البرنامج نفسه.
يمكن للتقنيات المماثلة محاكاة الصور ومقاطع الفيديو. في أوائل عام 2018 على سبيل المثال، أنشأ الممثل والمخرج «جوردان بيل» مقطع فيديو ظهر أنه يظهر الرئيس الأمريكي السابق باراك أوباما وهو يقول أشياء لم يقلها أوباما في الواقع لتحذير الجمهور من المخاطر التي تشكلها هذه التقنيات.
وفي أوائل عام 2019، انتشرت على الإنترنت صورة عارية مزيفة لنائب الولايات المتحدة ألكساندريا «أوكاسيو-كورتيز». من المتوقع أن يتم استخدام مقاطع الفيديو الملفقة، التي يطلق عليها غالباً “التزييف العميق”، بشكل متزايد في الحملات الانتخابية.
بدأ أعضاء الكونجرس النظر في هذه المسألة قبل انتخابات 2020. إذ قامت وزارة الدفاع الأمريكية بتعليم الجمهور كيفية اكتشاف مقاطع الفيديو والصوتيات المخادعة. كما بدأت المنظمات الإخبارية مثل رويترز في تدريب الصحفيين على اكتشاف التزييف العميق.
ولكن، من وجهة نظرٍ أخرى، يبقى مصدر قلق أكبر؛ وهو ألا يتمكن المستخدمون من التعلم بالسرعة الكافية لتمييز المحتوى المزيف عندما تصبح تقنية الذكاء الاصطناعي أكثر تعقيداً. على سبيل المثال، عندما بدأ الجمهور يدرك التزييف العميق، يتم استخدام الذكاء الاصطناعي بالفعل في عمليات الخداع الأكثر تقدماً. إذ توجد الآن برامج يمكنها إنشاء وجوه مزيفة وبصمات أصابع رقمية مزيفة ومؤثرين افتراضيين، مما يؤدي بشكل فعال إلى إنشاء المعلومات اللازمة لتصنيع شخص كامل، على الأقل في سجلات الشركات أو الحكومة.
كيف يمكن للذكاء الاصطناعي تعلّم التأثير على السلوك البشري
ابتكر فريق من الباحثين في مشروع «Data61»؛ وهو ذراع البيانات والرقمية لوكالة العلوم الوطنية الأسترالية، طريقةً منهجية لإيجاد واستغلال الثغرات الأمنية في الطرق التي يتخذ بها الناس الخيارات، ذلك باستخدام نوع من نظام الذكاء الاصطناعي يسمى الشبكة العصبية المتكررة والتعلم العميق. ولاختبار نموذجهم، أجروا ثلاث تجارب لعب فيها المشاركون البشريون ألعاباً ضد جهاز كمبيوتر.
اشتملت التجربة الأولى على قيام المشاركين بالنقر فوق المربعات ذات اللون الأحمر أو الأزرق للفوز بعملة مزيفة، مع تعلّم الذكاء الاصطناعي أنماط اختيار المشاركين، وتوجيههم نحو اختيار معين، كان الذكاء الاصطناعي ناجحاً في حوالي 70% من الوقت بجعلهم يختارون ما وجههم إليه.
أما في التجربة الثانية، طُلب من المشاركين مشاهدة شاشة والضغط على زر عندما يظهر لهم رمز معين (مثل مثلث برتقالي) وعدم الضغط عليه عندما يظهر لهم آخر (مثل دائرة زرقاء). هنا، شرع الذكاء الاصطناعي في ترتيب تسلسل الرموز بحيث يرتكب المشاركون المزيد من الأخطاء، وحقق زيادة بنسبة 25% تقريباً.
وتألفت التجربة الثالثة من عدة جولات يتظاهر فيها أحد المشاركين بأنه مستثمر يقدم أموالاً إلى وصي (وهو الذكاء الاصطناعي). إذ سيعيد النظام بعد ذلك مبلغاً من المال إلى المشارك، الذي سيقرر بعد ذلك المبلغ الذي سيستثمره في الجولة التالية. تم لعب هذه اللعبة في وضعين مختلفين؛ كان الذكاء الاصطناعي في أحدهما، يعمل على تعظيم مقدار الأموال التي انتهى بها الأمر، وفي الآخر، يهدف الذكاء الاصطناعي إلى التوزيع العادل للأموال بينه وبين المستثمر البشري. وكان الذكاء الاصطناعي ناجحاً للغاية في كلا الوضعين.
تعلمت الآلة في كل تجربة من ردود المشاركين، وحددت نقاط الضعف في عملية صنع القرار لدى الأشخاص واستهدفتها. وكانت النتيجة النهائية هي أن الآلة تعلمت توجيه المشاركين نحو إجراءات معيّنة.
اقرا المزيد:كيف تساعد مايكروسوفت صناع القرار في تطبيق الذكاء الاصطناعي؟