كان ذلك في الربيع الماضي عندما تلقى بادريك فيتزجيرالد مكالمة هاتفية في العمل. كان يشغل الموسيقى عبر هاتفه، وعندما رد على الهاتف، تصاعد صوت ابنته وهي تصرخ بأنها قد اختطفت عبر مكبرات الصوت.
يقول: “كل شخص لديه تلك النقاط في حياته مثل: “أوه، تلك اللحظة التي كدت أغرق فيها عندما كنت طفلاً”. “لقد كان أحد أكثر الأيام جرحًا عاطفيًا في حياتي.”
رفض فيتزجيرالد، وهو مدير متجر مقيم في غرب الولايات المتحدة، عرضًا للحصول على سلاح ناري من أحد زملائه، وسارع للحصول على أموال نقدية من أحد البنوك، بينما كان يظل على الهاتف.
يقول: “كانت (ابنته) تصرخ في الخلفية قائلة إنهم جرحوها بينما كنت أنتظر في الطابور”. “كنت سأقدم كل ما أملك ماليا.”
لقد كانت مجرد رسالة نصية من ابنته تكشف أن الصوت الموجود على الهاتف لا يخصها. لقد كانت عملية احتيال قاسية ومتقنة بشكل ملحوظ تم إنشاؤها باستخدام الذكاء الاصطناعي.
تعد قصة فيتزجيرالد مثالًا مرعبًا لكيفية تحول الذكاء الاصطناعي إلى سلاح جديد قوي للمحتالين، مما يجبر البنوك وشركات التكنولوجيا المالية على الاستثمار في التكنولوجيا لمواكبة سباق التسلح عالي التقنية.
يقول فيتزجيرالد: “لم يكن لدي أي حماية لطفلي في تلك اللحظة – بعد مرور عام، أود أن أجد ذلك الشخص وأجعله يدرك مدى شر ما فعلوه، وقد فعلوا ذلك بضغطات على المفاتيح”. “هل نحن حقًا متقدمون كمجتمع إذا تمكنا من القيام بذلك؟”
إن التطور المستمر للتكنولوجيا واستيعابها يعني أن المحتالين لا يشكلون تهديدًا فقط لغير المدركين أو الضعفاء. حتى المستهلكين الحذرين معرضون لخطر خسائر مالية فادحة بسبب الاحتيال المدعوم بالذكاء الاصطناعي. تستكشف FT Money آخر التطورات.
زيادة التعقيد
يقول أليكس ويست، المتخصص في الاحتيال المصرفي والمدفوعات في شركة برايس ووترهاوس كوبرز الاستشارية، إن تحديد حجم استخدام المحتالين للذكاء الاصطناعي يعد مهمة صعبة. لقد كان أحد مؤلفي تقرير حول تأثير الذكاء الاصطناعي على الاحتيال والاحتيال في ديسمبر الماضي بالتعاون مع التحالف متعدد الصناعات Stop Scams UK. وقد حدد هذا نوع “الاستنساخ الصوتي” الذي استهدف فيتزجيرالد باعتباره أحد أكبر الطرق التي يُتوقع من المجرمين أن يستخدموا بها الذكاء الاصطناعي.
“المحتالون ناجحون جدًا بالفعل، ومن الممكن أنهم لا يحتاجون إلى استخدام هذا النوع من التكنولوجيا، أو من الممكن أنهم يستخدمون الذكاء الاصطناعي ونحن غير قادرين على التمييز عند استخدامه”. هو يقول. “(لكن) من الواضح أن هذا سيؤدي إلى زيادة في محاولات الاحتيال الأكثر تعقيدًا.”
يقول ستيف كورنويل، رئيس قسم مخاطر الاحتيال في بنك TSB الرئيسي، إن التطور المتزايد للتكنولوجيا كان مصدر قلق كبير للبنوك.
“إذا فكرت في الطريقة التي يتبعها الذكاء الاصطناعي التوليدي، فكم من الوقت سيستغرق قبل أن يتمكن حل الذكاء الاصطناعي من إجراء محادثة في الوقت الفعلي معك (باستخدام) صوت اصطناعي؟” هو يقول.
تظهر الأرقام الصادرة عن الهيئة التجارية للصناعة المصرفية UK Finance اتجاها مرحب به، مع انخفاض خسائر الاحتيال بنسبة 8 في المائة على أساس سنوي في عام 2022.
لكن أحد كبار السياسيين، الذي لم يرغب في ذكر اسمه، يقول إن زيادة اعتماد الذكاء الاصطناعي – وصل ChatGPT التابع لشركة OpenAI إلى حوالي 100 مليون مستخدم شهريًا في شهرين – يمكن أن يعكس هذا الاتجاه.
يقول الشخص: “يتمتع المحتالون بتمويل جيد للغاية ويتمتعون بروح المبادرة”. “هذا هو الشيء الذي أشعر بالقلق بشأنه.”
البيانات الواردة من Cifas، وهي خدمة غير ربحية لمنع الاحتيال في المملكة المتحدة، تثير القلق أيضًا. وفي حين تظهر البيانات من عام 2022 أن الاحتيال في الهوية ارتفع بنسبة الربع تقريبًا، فإن التقارير عن أدوات الذكاء الاصطناعي المستخدمة لمحاولة خداع أنظمة البنوك زادت بنسبة 84 في المائة.
يحذر ستيفن دالتون قائلاً: “إننا نشهد زيادة في استخدام الصور ومقاطع الفيديو والصوت المزيفة أثناء عمليات التطبيق، إلى جانب تحديد الهويات الاصطناعية نتيجة لفحوصات “الحيوية” التي يتم إجراؤها الآن في مرحلة التطبيق”. ، مدير المخابرات في سيفاس.
وفي حديثها في دافوس يوم الأربعاء، قالت ماري كالاهان إردوس، رئيسة إدارة الأصول والثروات في بنك جيه بي مورجان، إن استخدام مجرمي الإنترنت للذكاء الاصطناعي كان مصدر قلق كبير. وأنفق البنك 15 مليار دولار سنويا على التكنولوجيا في السنوات الأخيرة ووظف 62 ألف تقني، حيث ركز العديد منهم فقط على مكافحة ارتفاع الجرائم السيبرانية.
وأضافت: “المحتالون يصبحون أكثر ذكاءً، وذكاءً، وأسرع، وأكثر مكرًا، وأكثر ضررًا”.
حددت شركة PwC وStop Scams أيضًا مقاطع الفيديو التي تم إنشاؤها بشكل مصطنع، والمعروفة باسم Deepfakes، باعتبارها خطرًا كبيرًا. التكنولوجيا، التي ظهرت فقط في عام 2019، تقدمت بسرعة، كما يقول هنري أجدر، الخبير في الوسائط المولدة بالذكاء الاصطناعي، والذي قدم الاستشارات للشركات بما في ذلك Meta وAdobe وEY.
ويقول: “ما حدث في الأشهر الثمانية عشر الماضية يعادل عقدين من التقدم مقارنة بالسنوات الأربع السابقة”. “إن حاجز الدخول أقل بكثير مما كان عليه من قبل.”
لقد تحسنت جودة مقاطع الفيديو هذه بشكل ملحوظ، كما يقول أندرو بود، الرئيس التنفيذي ومؤسس شركة iProov التي تقدم خدمة التحقق من الهوية عبر الإنترنت. ويشير إلى دراسة حديثة وجدت أن أكثر من ثلاثة أرباع المشاركين لم يتمكنوا من التعرف على التزييف العميق.
ويتابع قائلاً: “إن التزييف العميق عالي الجودة يكلف حوالي 150 دولارًا على الويب المظلم”. “لديك سلسلة توريد كاملة تعمل على تطوير عمليات الاحتيال المدعومة بالذكاء الاصطناعي، مع أقسام البحث والتطوير التي تقوم ببناء أدوات متطورة وتحقيق الدخل منها على الويب المظلم.”
تحذر ناتالي كيلي، كبيرة مسؤولي المخاطر في شركة Visa Europe، من وجود مجموعة من الأنظمة التي تركز على الجرائم، مثل WormGPT وFraudGPT وDarkBART. وتقول: “قد يكون من الصعب هذه الأيام التمييز بين الأصيل والمصطنع”.
وباستخدام هذه الأدوات المتاحة عبر الويب المظلم والتواصل عبر منتديات القرصنة وتطبيقات المراسلة المخصصة، يستطيع المجرمون تقديم خدمات كتابة البرامج الضارة أو رسائل البريد الإلكتروني التصيدية المتقدمة.
كيف تنتشر الآفة
ولطالما انتقدت المؤسسات المالية منصات وسائل التواصل الاجتماعي باعتبارها ناقلات للاحتيال. في الصيف الماضي، انتشرت عملية تزييف عميق لخبير توفير المال مارتن لويس ومالك X إيلون ماسك عبر وسائل التواصل الاجتماعي، للترويج لمنتج أشارت إليه باسم “Quantum AI”.
وتوجه لويس نفسه إلى منصة X، التي كانت تسمى سابقًا Twitter، في يوليو للتحذير من عملية الاحتيال. أظهرت بعض مقاطع الفيديو، التي تستهدف الجمهور البريطاني، بثًا واضحًا لهيئة الإذاعة البريطانية (BBC)، والتي كانت عبارة عن تزييف عميق لرئيس الوزراء ريشي سوناك وهو يشيد بفوائد الذكاء الاصطناعي الكمي.
وبينما تمت إزالة عدد من مقاطع الفيديو أو أصبحت غير نشطة، تقوم الحسابات الأخرى ببساطة بنسخ نفس المادة ولصقها.
الذكاء الاصطناعي ليس مثاليًا. وفي أحد مقاطع الفيديو التي تمت إزالتها الآن، يتعثر سوناك المزعوم في نطق كلمات مثل “مقدمة”.
وعلى الرغم من الاسم عالي التقنية، إلا أن العملية تتم يدويًا بشكل مدهش. الروابط من التزييف العميق تقود الأشخاص إلى تسليم أرقام هواتفهم. ثم يتولى عملاء مركز الاتصال المسؤولية، ويقنعون الناس بتسليم الأموال.
ومع ذلك، يؤكد ويست على أن عمليات الاحتيال بالنسبة للمجرمين هي لعبة كبيرة الحجم، ويمكن للذكاء الاصطناعي أن يقلب الميزان في حالات كافية لجعلها قابلة للتصديق.
ويقول: “إن جعل المحتوى أكثر قابلية للتصديق – وإقناع نسبة صغيرة فقط من الناس – يمكن أن يكون له مكافأة كبيرة للمحتال”.
إحدى هذه الحالات كانت مساعدًا طبيًا سابقًا في الولايات المتحدة، وقع ضحية محتال استثماري على شركة X الذي استخدم الذكاء الاصطناعي لانتحال شخصية إيلون ماسك.
يقول أحد أفراد الأسرة: “بدأ هذا في شهر مارس، ولم ندرك ذلك إلا في أغسطس، بعد أن قامت بالفعل بسحب مبالغ كبيرة جدًا من حساب التقاعد الخاص بها لمحاولة دفع حساب (الاستثمار)”.
وبينما بدأت العملية باستخدام الرسائل المباشرة، استخدم المجرم أيضًا مرشحًا لتقليد مظهر ” ماسك “، وقام بإجراء اتصال فيديو بالضحية لإقناعها بتسليم ما يقرب من 400 ألف دولار والتي من المفترض أنها ستستثمرها في “إكس”.
في هذه الأثناء، على موقع Alphabet’s YouTube، أدت موجة من هبات البيتكوين المزيفة التي يظهر فيها مايكل سايلور الذي تم إنشاؤه بواسطة الذكاء الاصطناعي إلى قيام الرئيس التنفيذي السابق لشركة MicroStrategy بإصدار تحذير على X. “كن حذرًا هناك، وتذكر أنه لا يوجد شيء مثل وجبة غداء مجانية. ” وتم تصنيف مقاطع الفيديو المزيفة، التي نشرتها مجموعة من الحسابات التي تم حظرها منذ ذلك الحين، على أنها مقاطع فيديو “مباشرة” لجعلها أكثر قابلية للتصديق.
يقول أجدر إن المنصات اتخذت خطوات لمواجهة التدفق المتزايد للمحتوى الناتج عن الذكاء الاصطناعي. في سبتمبر، أعلنت TikTok أنه سيُطلب من المستخدمين تصنيف المحتوى الناتج عن الذكاء الاصطناعي، بينما أعلنت شركة DeepMind من Google عن علامة مائية لصور الذكاء الاصطناعي في أغسطس.
لكن أجدر كان أيضًا حذرًا من سجل شركات التواصل الاجتماعي، التي غالبًا ما نفذت سياسات واضحة ظاهريًا بطريقة مجزأة. ويقول إن نقص الموارد يؤدي إلى التنفيذ غير الفعال.
كان موقف حكومة المملكة المتحدة بشأن الذكاء الاصطناعي والاحتيال مختلطًا. وفي خطاب ألقاه في يوليو/تموز، ذكر نيخيل راثي، الرئيس التنفيذي لهيئة السلوك المالي، التأثير المحتمل للذكاء الاصطناعي على “الاحتيال السيبراني والهجمات السيبرانية والاحتيال على الهوية” في خطاب حول تنظيم التقنيات الجديدة. وفي جلسة استماع للجنة مختارة بوزارة الخزانة في ديسمبر/كانون الأول، حذر راثي أيضًا من أن المجرمين “يستخدمون الذكاء الاصطناعي دون قيود” للتلاعب بالأسواق.
تقول هيئة مراقبة السلوكيات المالية (FCA) إنه “مع زيادة اعتماد الذكاء الاصطناعي، يجب تسريع الاستثمار في منع الاحتيال والمرونة التشغيلية والسيبرانية”.
لكن الحكومة لم تذكر هذه التكنولوجيا صراحة في استراتيجيتها لمكافحة الاحتيال في مايو/أيار الماضي أو في “ميثاق الاحتيال عبر الإنترنت” الطوعي لمنصات التكنولوجيا الكبرى الذي تم الكشف عنه في نوفمبر/تشرين الثاني.
وتقول وزارة الداخلية إنها “تعمل مع شركائنا عبر الحكومة وإنفاذ القانون والقطاع الخاص لتعزيز استخدام الذكاء الاصطناعي لمعالجة الجريمة وحماية الجمهور”.
وتقول شركة ميتا إن إعلانات التزييف العميق غير مسموح بها على منصاتها، وتقوم بإزالة مثل هذا المحتوى عندما يتم لفت انتباهها إليها، مضيفة أن الشركة “تعمل باستمرار على تحسين أنظمتنا”.
تحظر سياسة المعلومات الخاطئة في YouTube مقاطع الفيديو التي تم التلاعب بها أو التلاعب بها. أعلنت المنصة العام الماضي أنها ستبدأ في مطالبة المبدعين بالكشف عن مواد واقعية معدلة أو تم إنشاؤها بواسطة الذكاء الاصطناعي.
القتال مرة أخرى مع الذكاء الاصطناعي
الوضع ليس قاتما تماما. على الرغم من أن استخدام المحتالين للذكاء الاصطناعي آخذ في الارتفاع، فإن اعتماده من قبل المؤسسات، بدءًا من البنوك وVisa وMastercard إلى شركات التكنولوجيا المتخصصة، آخذ في الارتفاع.
يقول بود من iProov: “إذا لم تتمكن العين البشرية من معرفة ما إذا كان حقيقيًا، فإن اللعبة لم تنته بعد”. “إنها لعبة القط والفأر، ونحن نتطور بنفس سرعة الأشرار للبقاء في المقدمة.”
ويقول إن تكنولوجيا شركته، المصممة للمساعدة في مكافحة التزييف العميق وغيرها من عمليات التزييف، قد تم استخدامها من قبل عملاء بما في ذلك إدارة المركبات الآلية في كاليفورنيا، والخدمة الرقمية الحكومية في المملكة المتحدة والبنوك الكبرى في أمريكا الجنوبية.
هناك شركة ناشئة أخرى تستخدم الذكاء الاصطناعي لمكافحة الاحتيال وهي شركة Catch ومقرها الولايات المتحدة، والتي تهدف إلى مساعدة البالغين الضعفاء من خلال الكشف عن عمليات الاحتيال عبر البريد الإلكتروني، وشرح العلامات الحمراء والتوصية بالخطوات التالية.
يقول: “إن الأموال النقدية التي يميل (كبار السن) إلى خسارتها هي أكثر قيمة بالنسبة لهم – في المتوسط، يكون حجم الشيك الذي يخسرونه أكبر، وإذا كانوا متقاعدين، فلن يكون لديهم الوقت لاسترداد هذه الأموال”. المؤسس المشارك أوري بيرل.
كما تستخدم البنوك الذكاء الاصطناعي لدعم جيش من الموظفين الذين يقومون بتقييم الانتهاكات المحتملة للوائح مكافحة غسيل الأموال.
يقول جودموندور كريستيانسون، المؤسس والرئيس التنفيذي لشركة لوسينيتي للتكنولوجيا المالية الأيسلندية: “هناك الكثير من الشركات الصغيرة الرائعة جدًا القادمة في مجال “اعرف عميلك”. “إننا نقوم بالكثير من التطوير باستخدام الذكاء الاصطناعي التوليدي.”
أحد منتجات لوسينيتي، الملقب بـ لوسي، يأخذ البيانات ويجمعها في تنسيق يمكن قراءته بسهولة، مما يؤدي إلى تسريع ما كان تقليديًا عملية يدوية للغاية لمراقبة المعاملات.
فقدان الثقة
ولكن حتى هذه التطورات قد لا تكون قادرة على الدفاع ضد بعض مناطق الهجوم.
يقول بود: “بالنسبة للصوت، يبدو أن اللعبة قد انتهت، ومن الواضح بشكل متزايد أنه لا يوجد دفاع”، لأن الكمية الصغيرة من البيانات الموجودة في الملفات الصوتية تجعل من الصعب على شركات التكنولوجيا التمييز بين الحقيقي والمزيف.
ويتجاوز التأثير على ضحايا عمليات الاحتيال التي يحركها الذكاء الاصطناعي الخسائر المالية، المحتملة أو الحقيقية. يقول فيتزجيرالد إن تجربته أفسدت نظرته للتكنولوجيا. فهو يتجنب التجارة الإلكترونية ومعظم منصات التواصل الاجتماعي، ويقول إنه يشعر براحة أكبر عند سحب الأموال من البنك وإنفاقها بدلاً من استخدام البطاقة.
يقول: “لقد جعلتني تلك المكالمة الهاتفية أدرك مدى ضعفي ومدى ضعف أطفالنا”. “لم أفهم أنه كان من الممكن أن يحدث ذلك.”