حسب صعود التوليد الذكاء الاصطناعي (AI) خلقت التقنيات فرصًا جديدة للشركات والأفراد الذين يتطلعون إلى الاستفادة من هذه الأدوات الجديدة ، كما أنها فتحت الباب أمام إساءة استخدام هذه التقنيات من قبل المحتالين الذين يتطلعون إلى استخدام تقنية التزييف العميق وطرق أخرى لتنفيذ الجرائم.
تشير بعض البيانات إلى أن استخدام تقنية الذكاء الاصطناعي للتزييف العميق لارتكاب جرائم آخذ في الازدياد. Sumsub – الشركة التي تقدم اعرف عميلك (KYC) ، واعرف عملك (KYB) ، ومراقبة المعاملات وحلول مكافحة غسيل الأموال – أصدرت بيانات يوم الاثنين تظهر ارتفاعًا في عمليات الاحتيال المزيف العميق خلال العام الماضي. تستخدم تقنية التزييف العميق البيانات الحيوية لإنتاج صور وصوت مزيف يبدو واقعيًا للمشاهد أو المستمع غير المتعمد.
شرح بافيل غولدمان كاليدن ، رئيس الذكاء الاصطناعي والتعلم الآلي في Sumsub ، العلاقة بين التطور المتزايد وتوافر أدوات الذكاء الاصطناعي التوليدية واستخدام التزييف العميق من أجل فوكس بيزنس:
“إنها ليست مصادفة بل نتيجة منطقية. مع الاتجاه المتزايد لأدوات الذكاء الاصطناعي التوليدية واستخدام التزييف العميق للصور ، من الواضح أن تقنية التزييف العميق أصبحت أكثر انتشارًا في الأشهر الأخيرة. في الواقع ، شهدنا المزيد من التزييف العميق في الأشهر الثلاثة الماضية مما رأيناه في السنوات القليلة الماضية “.
قضايا لجنة التجارة الفيدرالية تحذر من سوء استخدام المعلومات البيومترية وسط ارتفاع الذكاء الاصطناعي التوليدي
وجد تقرير Sumsub عن إحصاءات الاحتيال الذي صدر يوم الثلاثاء أن نسبة حالات الاحتيال التي تنطوي على استخدام التزييف العميق قفزت من 0.2٪ في الربع الأول من عام 2022 إلى 2.6٪ في الربع الأول من عام 2023 بالنسبة للولايات المتحدة ، ومن 0.1٪ إلى 4.6٪ في كندا خلال نفس الفترة. قال Goldman-Kalaydin إن تطور منصات الذكاء الاصطناعي التوليدية سهّل على المحتالين إنشاء تقنية التزييف العميق القادرة على إحباط إجراءات الحماية ضد الاحتيال.
“لقد أثرت التطورات الحديثة في إنشاء الصور أيضًا على توليد التزييف العميق. كان السيناريو المعتاد قبل عام هو استخدام مستند مسروق حقيقي كقاعدة ، ثم استخدام تبديل الوجه من المستند إلى فيديو مسجل مسبقًا لأحد المحتالين وأوضح أن ذلك سمح للمحتال بتحريك رأسه كما هو مطلوب من قبل العديد من منصات التحقق “.
“الآن ، ليس من الضروري دائمًا الحصول على صورة وجه من هذا القبيل. بدلاً من ذلك ، يمكنك إنشاؤها من نقطة الصفر واستخدامها في كل من المستندات وصور الوجه. وهذا يجعل من الصعب على منصات التحقق البحث عن الهويات المسروقة لأنه لا يوجد شيء بحث عن.”
ما هي مخاطر الذكاء الاصطناعي؟ اكتشف سبب خوف الناس من الذكاء الاصطناعي
فيما يتعلق بالصناعات التي هي الأكثر عرضة لخطر الاحتيال المزيف العميق ، قال Goldman-Kalaydin إن منصات التكنولوجيا المالية والعملات المشفرة والمقامرة “معرضة بشكل خاص للخطر” ولكن “جميع الشركات التي تعمل رقميًا وتؤدي عمليات التحقق عن بُعد معرضة للاحتيال المزيف العميق.”
وأشار جولدمان كالدين إلى أنه “مع تقدم تقنية الذكاء الاصطناعي التوليدية ، أصبحت المزيد من الأدوات متاحة للمحتالين.” ومضى ليشرح أنه وفريق Sumsub قد واجهوا محتالين يندرج استخدامهم لأدوات الذكاء الاصطناعي عمومًا في فئتين من التطور:
“هناك نوعان من المحتالين: فرق ذكية للغاية تستخدم أحدث التقنيات والأجهزة ، مثل وحدات معالجة الرسوم (GPU) المتطورة ونماذج الذكاء الاصطناعي التوليدية الحديثة ، والمحتالين من المستوى الأدنى الذين يستخدمون الأدوات المتاحة بشكل شائع على أجهزة الكمبيوتر. على سبيل المثال ، هناك أشخاص تم حظرهم من مواقع المقامرة بسبب انتهاك القواعد والذين يريدون العودة إلى الموقع بأي وسيلة “.
أما بالنسبة لما يمكن للمستهلكين وأفراد الجمهور القيام به لمنع استخدام بياناتهم لإنشاء التزييف العميق ، فقد قال غولدمان صلاح الدين إن منصات التحقق التي تأخذ في الاعتبار عوامل متعددة قد تكون أفضل وسيلة لردع عمليات الاحتيال المزيف العميق.
“الإجابة على هذا السؤال ليست سهلة. بينما لا يوصى بنشر صور عالية الجودة للوجه على الشبكات الاجتماعية ، يمكن استخدام حتى الصور منخفضة الجودة لإنشاء صور مزيفة يمكن تحسينها بعد ذلك بتقنيات فائقة الدقة لجعلها تبدو واقعية.” . “في النهاية ، لا يسع المرء إلا أن يأمل في أن تستخدم منصات التحقق عدة فحوصات ، ليس فقط على الصورة نفسها ، ولكن أيضًا على سلوك المستخدم لاكتشاف ومنع الاحتيال.”