كانت عمليات الاحتيال عبر الهاتف موجودة منذ فترة، ولكن التطورات الأخيرة في تكنولوجيا الذكاء الاصطناعي تسهل على الجهات الفاعلة السيئة إقناع الأشخاص بأنهم قد اختطفوا أحبائهم.
يستخدم المحتالون الذكاء الاصطناعي لتقليد أصوات أفراد عائلات الأشخاص في مخططات اختطاف وهمية تقنع الضحايا بإرسال أموال إلى المحتالين مقابل سلامة أحبائهم.
استهدف المخطط مؤخرًا ضحيتين في إحدى مدارس ولاية واشنطن.
أصدرت مدارس هايلاين العامة في بورين، واشنطن، إشعارًا بتاريخ 25 سبتمبر/أيلول ينبه أفراد المجتمع إلى أن الشخصين تم استهدافهما من قبل “محتالين يزعمون كذبًا أنهم اختطفوا أحد أفراد الأسرة”.
هل يمكن لمنظمة العفو الدولية مساعدة شخص ما في تنظيم عملية اختطاف مزيفة ضدك أو ضد عائلتك؟
وكتبت المنطقة التعليمية: “قام المحتالون بتشغيل تسجيل صوتي (تم إنشاؤه بواسطة الذكاء الاصطناعي) لأحد أفراد الأسرة، ثم طالبوا بفدية”. “لاحظ مكتب التحقيقات الفيدرالي (FBI) زيادة في عمليات الاحتيال هذه على مستوى البلاد، مع التركيز بشكل خاص على العائلات التي تتحدث لغة أخرى غير الإنجليزية”.
في يونيو/حزيران، أدلت جينيفر ديستيفانو، والدة أريزونا، بشهادتها أمام الكونجرس حول كيفية استخدام المحتالين للذكاء الاصطناعي لجعلها تعتقد أن ابنتها قد اختطفت في مؤامرة ابتزاز بقيمة مليون دولار. بدأت بشرح قرارها بالرد على مكالمة من رقم غير معروف بعد ظهر يوم الجمعة.
أم أريزونا مرعوبة من عملية اختطاف بالذكاء الاصطناعي حاولت استدراجها للاختطاف لأنها كانت تخشى على ابنتها
“أجبت على الهاتف “مرحبا”.” وكتبت ديستيفانو في شهادتها أمام الكونجرس: “على الجانب الآخر كانت ابنتنا بريانا تبكي وتبكي قائلة: أمي”. “في البداية، لم أفكر في الأمر. … سألتها عرضًا عما حدث بينما كنت أتحدث معها عبر مكبر الصوت وهي تسير عبر ساحة انتظار السيارات لمقابلة أختها. واصلت بريانا قائلة: “أمي، لقد أخطأت” مع مزيد من البكاء والنحيب. “.
في ذلك الوقت، لم يكن لدى ديستيفانو أي فكرة أن ممثلًا سيئًا استخدم الذكاء الاصطناعي لتكرار صوت ابنتها على الخط الآخر.
شاهد شهادة ديستيفانو:
ثم سمعت صوت رجل على الطرف الآخر يصرخ بمطالب ابنتها، بينما واصلت بريانا – صوتها، على الأقل – الصراخ بأن الرجال السيئين “أخذوها”.
“كانت بريانا في الخلفية تتوسل بشدة قائلة: “أمي ساعديني!””
“تولى رجل مهدد ومبتذل المكالمة. 'اسمع هنا، لدي ابنتك، أخبر أي شخص، اتصل بالشرطة، سأضخ معدتها المليئة بالمخدرات، وسأفعل ما أريد معها'. ، أوصلها إلى (م) المكسيك ولن تراها مرة أخرى أبدًا! طوال الوقت كانت بريانا في الخلفية تتوسل بشدة، “أمي، ساعديني!” كتب ديستيفانو.
وطالب الرجال بفدية قدرها مليون دولار مقابل سلامة بريانا بينما حاولت ديستيفانو الاتصال بالأصدقاء والعائلة والشرطة لمساعدتها في تحديد مكان ابنتها. عندما أخبرت ديستيفانو المحتالين أنها لا تملك مليون دولار، طالبوا باستلام مبلغ 50 ألف دولار نقدًا شخصيًا.
أثناء استمرار هذه المفاوضات، حدد زوج ديستيفانو مكان بريانا بأمان في المنزل في سريرها دون علم بعملية الاحتيال التي تنطوي على صوتها.
وكتب ديستيفانو “كيف يمكن أن تكون آمنة مع والدها وهي في حوزة الخاطفين؟ لم يكن الأمر منطقيا. كان علي أن أتحدث إلى بري”. “لم أستطع أن أصدق أنها كانت آمنة حتى سمعت صوتها يقول إنها كذلك. سألتها مرارًا وتكرارًا إذا كانت هي حقًا، إذا كانت آمنة حقًا، مرة أخرى، هل هذه بري حقًا؟ هل أنت متأكد من أنك آمن حقًا؟ كان ذهني يدور، لا أتذكر كم مرة كنت بحاجة إلى الطمأنينة، ولكن عندما أدركت أخيرًا أنها آمنة، شعرت بالغضب.
واختتمت ديستيفانو شهادتها بالإشارة إلى كيف يجعل الذكاء الاصطناعي من الصعب على البشر أن يصدقوا عيونهم ويسمعوا بآذانهم – خاصة في الإعدادات الافتراضية أو عبر الهاتف.
لقد استهدفت الجهات الفاعلة السيئة الضحايا في جميع أنحاء الولايات المتحدة وحول العالم. إنهم قادرون على تكرار صوت الشخص من خلال تكتيكين رئيسيين: أولاً، من خلال جمع البيانات من صوت الشخص إذا استجاب لمكالمة غير معروفة من المحتالين، الذين سيستخدمون بعد ذلك الذكاء الاصطناعي للتلاعب بنفس الصوت لقول جمل كاملة؛ وثانيًا، من خلال جمع البيانات من صوت الشخص من خلال مقاطع الفيديو العامة المنشورة على وسائل التواصل الاجتماعي.
“كلما تحدثت لفترة أطول، كلما جمعوا المزيد من البيانات.”
هذا وفقًا لما قاله بينو أرورا، الرئيس التنفيذي ورئيس شركة Cyble، وهي شركة للأمن السيبراني تستخدم حلولًا تعتمد على الذكاء الاصطناعي لإيقاف الجهات الفاعلة السيئة.
“لذا فأنت تتحدث معهم بشكل أساسي، على افتراض أن هناك شخصًا يحاول إجراء محادثة، أو … مكالمة تسويق عبر الهاتف، على سبيل المثال. والقصد من ذلك هو الحصول على البيانات الصحيحة من خلال صوتك، والتي يمكنهم أيضًا تقليدها … من خلال بعض الأصوات الأخرى. وأوضح أرورا: “نموذج الذكاء الاصطناعي”. “وهذا أصبح أكثر وضوحا الآن.”
شاهد: ضحية الاختطاف عبر الإنترنت تحذر الآباء
وأضاف أن “استخراج الصوت من مقطع فيديو” على وسائل التواصل الاجتماعي “ليس بهذه الصعوبة”.
قال أرورا عن المحتالين: “كلما تحدثت لفترة أطول، كلما زاد عدد البيانات التي يجمعونها، كما قل عدد التعديلات الصوتية ولغتك العامية والطريقة التي تتحدث بها. ولكن … عندما تتلقى هذه المكالمات الشبح أو المكالمات الفارغة، فأنا في الواقع أوصي بعدم التحدث كثيرًا.”
المحتالون يستخدمون الذكاء الاصطناعي لاستنساخ صوت امرأة، وترويع العائلة بمكالمة فدية مزيفة: “أسوأ يوم في حياتي”
توصي المعاهد الوطنية للصحة (NIH) أهداف الجريمة بالحذر من المكالمات التي تطلب فدية من رموز منطقة غير مألوفة أو أرقام ليست هاتف الضحية. يبذل هؤلاء الممثلون السيئون أيضًا “جهودًا كبيرة” لإبقاء الضحايا على الهاتف حتى لا تتاح لهم فرصة الاتصال بالسلطات. كما يطلبون في كثير من الأحيان إرسال أموال الفدية عبر خدمة التحويل البنكي.
وتوصي الوكالة أيضًا الأشخاص المستهدفين بهذه الجريمة بمحاولة إبطاء الموقف، وطلب التحدث مباشرة مع الضحية، وطلب وصف للضحية، والاستماع بعناية إلى صوت الضحية ومحاولة الاتصال بالضحية بشكل منفصل عبر مكالمة أو رسالة نصية أو رسالة مباشرة.
نشرت المعاهد الوطنية للصحة إعلانًا للخدمة العامة قائلة إن العديد من موظفي المعاهد الوطنية للصحة وقعوا ضحية لهذا النوع من الاحتيال، والذي “يبدأ عادةً بمكالمة هاتفية تفيد بأن أحد أفراد عائلتك محتجز”. في السابق، كان المحتالون يزعمون أن أحد أفراد عائلة الضحية قد تم اختطافه، وأحيانًا بصوت صراخ في خلفية مكالمة هاتفية أو رسالة فيديو.
ولكن في الآونة الأخيرة، وبسبب التقدم في الذكاء الاصطناعي، أصبح بإمكان المحتالين تقليد صوت أحد أفراد أسرته باستخدام مقاطع الفيديو على وسائل التواصل الاجتماعي لجعل مؤامرة الاختطاف تبدو أكثر واقعية. بمعنى آخر، يمكن للجهات الفاعلة السيئة استخدام الذكاء الاصطناعي لتقليد صوت أحد أحبائها، باستخدام مقاطع الفيديو المتاحة للجمهور عبر الإنترنت، لجعل أهدافهم تعتقد أن أفراد أسرهم أو أصدقائهم قد تم اختطافهم.
عادةً ما يزود المتصلون الضحية بمعلومات حول كيفية إرسال الأموال مقابل العودة الآمنة لأحبائهم، لكن الخبراء يقترحون أن يأخذ ضحايا هذه الجريمة لحظة للتوقف والتفكير فيما إذا كان ما يسمعونه عبر الخط الآخر حقيقيًا أم لا. حتى في لحظة الذعر.
“نصيحتي المتواضعة… هي أنه عندما تتلقى مثل هذا النوع (الأنواع) من الرسائل المزعجة، أو عندما يحاول شخص ما دفعك أو القيام بأشياء (مع شعور) بالإلحاح، فمن الأفضل دائمًا التوقف والتفكير قبل أن تذهب”. قال. “أعتقد كمجتمع أن التمييز بين الحقيقي والمزيف سيصبح أكثر صعوبة بسبب التقدم الذي نشهده.”
وأضاف أرورا أنه على الرغم من وجود بعض الأدوات التي تتمحور حول الذكاء الاصطناعي والتي يتم استخدامها لتحديد ومكافحة عمليات احتيال الذكاء الاصطناعي بشكل استباقي، إلا أنه بسبب الوتيرة السريعة لهذه التكنولوجيا المتطورة، هناك طريق طويل أمام أولئك الذين يعملون على منع الجهات الفاعلة السيئة من استغلال الضحايا غير المعروفين. يجب على أي شخص يعتقد أنه وقع ضحية لهذا النوع من الاحتيال الاتصال بقسم الشرطة المحلي.