تزايد عمليات الاحتيال عبر استنساخ الصوت بواسطة الذكاء الاصطناعي

الخطر الأبرز للذكاء الاصطناعي يتمثل في قدرة هذه التقنية على التقريب بين الحقيقة والخيال

انتاب امرأة قلق بعدما سمعت صوت كريمتها وهي تبكي في مكالمة هاتفية يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية، إلا أن نبرة صوت الابنة لم تكن حقيقية بل مبتكرة بواسطة تقنية الذكاء الاصطناعي في محاولة للقيام بعملية احتيال، وهي مسألة مقلقة تبرز مع هذه التكنولوجيا التي تشهد ازدهاراً في المرحلة الراهنة.

Tech3arabi Plans

ويشير الخبراء إلى أن الخطر الأبرز للذكاء الاصطناعي يتمثل في قدرة هذه التقنية على تبديدها تقريباً الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعالة وغير مكلفة.

وتثير عمليات احتيال هاتفية حديثة باستخدام أدوات النسخ الصوتي المستندة إلى الذكاء الاصطناعي والمتاحة بسهولة عبر الإنترنت، قلق السلطات الأميركية.

وتسمع جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتاً يقول “ساعديني يا أمي، أرجوك”، وصدقت الوالدة أن الصوت عائد لابنتها البالغة من العمر 15 سنة التي خرجت لممارسة التزلج.

وتقول ديستيفانو لمحطة تلفزيونية محلية في حديث يعود إلى أبريل (نيسان) الماضي “كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها”، مضيفة “لم أشك للحظة في أنها قد لا تكون هي”.

وطلب المحتال الذي اتصل بالوالدة من رقم مجهول، الحصول على مليون دولار لقاء إطلاق سراح الفتاة.

وراهناً تخضع هذه الحادثة التي وصلت إلى نهايتها سريعاً بعدما تمكنت ديستيفانو من التواصل مع ابنتها، إلى تحقيق من السلطات المختصة وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.

ويؤكد المدير التنفيذي لشركة “بلاكبيرد. ايه آي” وسيم خالد، في حديث إلى وكالة الصحافة الفرنسية أن “النسخ الصوتي عبر الذكاء الاصطناعي الذي بات من شبه المستحيل تمييزه عن الصوت البشري، يتيح للأشخاص سيئي النية كالمحتالين الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية مما يعتمدون في العادة”.

وتتيح تطبيقات كثيرة مجانية ومتاحة عبر الإنترنت بدرجة كبيرة، استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص، ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.

ويقول خالد “من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استناداً إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يزعم أنها للضحية، ويستخدم الصوت المستنسخ أيضاً كصوت معدل أثناء المكالمات الحية”.

ويضيف خالد أن “المحتالين يستخدمون لهجات متنوعة، ويقلدون الطريقة التي تتحدث بها الضحية”، مؤكداً أن هذه التكنولوجيا “تتيح إنشاء عمليات تزييف مقنعة”.

وأظهر استطلاع نشرته شركة “ماك أفي لابز” الشهر الماضي وشمل نحو 7 آلاف شخص في تسع دول بينها الولايات المتحدة، أن شخصاً واحداً من كل أربعة استهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو يعرف شخصاً تعرض لعملية مماثلة، وأشار 70 في المئة ممن شملهم الاستطلاع إلى أنهم لم يكونوا أكيدين من قدرتهم على التمييز بين الصوت الحقيقي والمستنسخ.

وحذرت السلطات الأميركية أخيراً من تزايد “عمليات الاحتيال التي تطاول الأجداد”، حيث قالت لجنة التجارة الفيدرالية في تحذيرها “تتلقون مكالمة يسمع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادثة سير واحتجازه من الشرطة، لكنكم قادرون على مساعدته من خلال إرسال الأموال له”.

وفي التعليقات التي كتبت تحت تحذير اللجنة الأميركية، يشير عدد كبير من المسنين إلى أنهم خدعوا بهذه الطريقة.

واقتنع جد تعرض لعملية احتيال بما سمعه لدرجة أنه بدأ يجمع الأموال وفكر في رهن منزله، قبل أن يتبين أن ما يحدث ليس سوى عملية احتيال.

ويقول أكاديمي بكلية المعلومات في جامعة كاليفورنيا هاني فريد إن السهولة التي يتسم بها استنساخ الصوت تعني أن “كل مستخدم للإنترنت معرض للخطر”، لافتاً إلى أن “عمليات الاحتيال آخذة في الازدياد”.

وتعين على شركة “إيليفن لابس” الناشئة الاعتراف بأن أداتها الناسخة للصوت من خلال الذكاء الاصطناعي يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الانترنت مقطعاً مزيفاً للممثلة إيما واتسون وهي تقرأ مقاطع من كتاب “كفاحي” لأدولف هتلر.

ويقول مسؤول في شركة “تيم 8” المتخصصة في الاستثمارات التكنولوجية غال تال – هوشبيرغ “نقترب بسرعة من المرحلة التي لن يعود بإمكاننا فيها الوثوق بالمحتوى المنشور عبر الإنترنت، التي سيتعين علينا خلالها الاستعانة بتقنيات جديدة لنتأكد من أن الشخص الذي نعتقد أننا نتحدث معه (عبر الهاتف) هو بالفعل من نتواصل معه”.

التعليق بواسطة حساب الفيسبوك

مقالات ذات صلة

زر الذهاب إلى الأعلى