احصل على تحديثات مجانية للأمن السيبراني
سوف نرسل لك أ ميفت ديلي دايجست البريد الإلكتروني تقريب الأحدث الأمن الإلكتروني أخبار كل صباح.
لقد تمكنت تقنية Deepfake من إنشاء عروض واقعية – ولكنها زائفة – لأشخاص حقيقيين وأصواتهم لبعض الوقت. ولكن الآن، مع التقدم السريع في الذكاء الاصطناعي التوليدي، فمن المتوقع أن يصبح فجأة أكثر تعقيدا. كم من الوقت، إذن، قبل أن يبدأ المنتحلون الرقميون في ملء شاشاتنا بروايات مزيفة وإفراغ حساباتنا المصرفية؟
منذ أن بدأ استخدام تقنية التزييف العميق في تحرير الأفلام، يخشى الخبراء من إمكانية إساءة استخدام التكنولوجيا لنشر معلومات مضللة عبر الإنترنت أو لسرقة الهوية والاحتيال.
ونتيجة لذلك، تطور بسرعة سوق أدوات الكشف عن التزييف العميق. يمكن أن يستخدم هؤلاء الذكاء الاصطناعي لرصد العلامات الدالة على أن المحتوى مزيف – بناءً على فهم الطريقة التي يتم بها إنشاء التزييف العميق. على سبيل المثال، في حالة صورة شخص ما، فإن التناقضات حول الإضاءة والظلال والزوايا، أو حالات التشويه والتعتيم، تعد بمثابة هبات واضحة.
ومع ذلك، مع الانفجار الأخير لنماذج الذكاء الاصطناعي التوليدية وروبوتات الدردشة الاستهلاكية مثل ChatGPT، أصبحت تقنية التزييف العميق أكثر إقناعًا – وأكثر سهولة على نطاق واسع. لم يعد المتسللون بحاجة إلى قدرات تقنية متقدمة.
يقول مايكل ماتياس، الرئيس التنفيذي لشركة Clarity الناشئة للكشف عن التزييف العميق: “يتم إطلاق نماذج أكثر تقدمًا للذكاء الاصطناعي ضمن مجال مفتوح المصدر، مما يجعل التزييف العميق أكثر انتشارًا ويدفع التكنولوجيا إلى أبعد من ذلك”. ويحذر من أن “ظهور “التطبيقات القاتلة” التي يسهل الوصول إليها يمكّن الجهات الفاعلة السيئة من إنشاء صور مزيفة فائقة الجودة بسرعة وسهولة ودون أي تكاليف”. وهذا بالفعل يجعل بعض أدوات الكشف أقل فعالية.
وفقًا لمزود التكنولوجيا ExpressVPN، يوجد الآن الملايين من التزييف العميق عبر الإنترنت اليوم، ارتفاعًا من أقل من 15000 في عام 2019. وفي استطلاع أجرته شركة Regula، قالت حوالي 80% من الشركات إن هذه التزييفات العميقة – الصوت أو الفيديو – تمثل تهديدات حقيقية لعملياتها.
يقول ماثيو مويناهان، الرئيس التنفيذي لشركة OneSpan التي توفر خدمات المصادقة: “تحتاج الشركات إلى النظر إلى هذا باعتباره الجيل القادم من المخاوف المتعلقة بالأمن السيبراني”. “لقد قمنا بحل مشكلات السرية والتوفر إلى حد كبير، والآن أصبح الأمر يتعلق بالموثوقية.”
إنها أولوية أيضًا. وجد تقرير صدر في يونيو من قبل Transmit Security أن التزييف العميق الناتج عن الذكاء الاصطناعي يمكن استخدامه لتجاوز أنظمة الأمان البيومترية، مثل أنظمة التعرف على الوجه التي تحمي حسابات العملاء، وإنشاء مستندات هوية مزورة. ويمكن الآن برمجة Chatbots لمحاكاة فرد موثوق به أو ممثل خدمات العملاء، وخداع الأشخاص لتسليم معلومات شخصية قيمة لاستخدامها في هجمات أخرى.
في العام الماضي فقط، أبلغ مكتب التحقيقات الفيدرالي عن ارتفاع في الشكاوى التي تشير إلى استخدام التزييف العميق إلى جانب معلومات التعريف الشخصية المسروقة للتقدم للوظائف ووظائف العمل في المنزل عبر الإنترنت.
إحدى طرق مكافحة هذا النوع من سرقة الهوية هي استخدام ما يعرف بالقياسات الحيوية السلوكية، كما يقول هايوود تالكوف، الرئيس التنفيذي لمجموعة LexisNexis Risk Solutions Government Group. يتضمن ذلك تقييم وتعلم كيفية تعامل المستخدم مع الجهاز، مثل الهاتف الذكي، أو التصرف عند استخدام الكمبيوتر. إذا تم اكتشاف أي تغييرات مشبوهة، فسيتم وضع علامة عليها.
يوضح تالكوف: “تبحث أنظمة القياسات الحيوية السلوكية هذه عن آلاف الإشارات التي تشير إلى أن شخصًا ما قد لا يكون كما يقول”. على سبيل المثال، إذا كان المستخدم موجودًا في جزء جديد من موقع ويب لم يسبق له زيارته من قبل ومع ذلك يبدو أنه على دراية به وقادر على التنقل بسرعة، فقد يكون ذلك مؤشرًا للاحتيال.
تعد الشركات الناشئة، مثل BioCatch، بالإضافة إلى المجموعات الأكبر، مثل LexisNexis، من بين الشركات التي تعمل على تطوير هذه التكنولوجيا للتحقق المستمر من المستخدم في الوقت الفعلي.
لكن هناك خطر وقوع هجمات مضادة. يشير Transmit Security إلى أن “أنظمة الكشف عن الاحتيال التقليدية تعتمد غالبًا على الخوارزميات القائمة على القواعد أو تقنيات التعرف على الأنماط”. “ومع ذلك، يمكن للمحتالين الذين يستخدمون الذكاء الاصطناعي استخدام التزييف العميق للتهرب من هذه الأنظمة. ومن خلال توليد بيانات مزيفة أو التلاعب بالأنماط التي تعلمت منها نماذج الذكاء الاصطناعي – وهي تقنية احتيال تعرف باسم الهجمات العدائية – يمكن للمحتالين خداع الخوارزميات لتصنيف الأنشطة الاحتيالية على أنها مشروعة.
تشمل الأساليب الأخرى لمكافحة سرقة الهوية عبر الإنترنت أدوات المصادقة متعددة العوامل وتقييم الجهاز. يعتقد هنري ليجارد، الرئيس التنفيذي لشركة Verisoul الناشئة للتحقق، أن الجودة التي يسميها “الحيوية” ستصبح مهمة في منع سرقة الهوية.
يمكن أن يشمل ذلك مطالبة الشركات للمستخدمين بتصوير مقطع فيديو قصير لأنفسهم، لتأكيد هويتهم. تُستخدم التكنولوجيا “للتأكد من وجود حركة أو تغير يشبه الإنسان – يومض، تشنجات الفم – للتأكد من أنك حقيقي، وليس قناعًا أو صورة ثلاثية الأبعاد”. وسوف يتحقق أيضًا من أن الشركة تتلقى بث فيديو في الوقت الفعلي.
ولكن في حين أن العديد من الشركات، وخاصة البنوك، تتبنى القياسات الحيوية السلوكية وغيرها من تقنيات التحقق القوية، يشير تالكوف إلى أن أغلب إدارات العمل في الولايات المتحدة لا تزال تعتمد على التعرف على الوجه وحده.
ويقول: “في هذه اللحظة، أصبحت الحكومة الأمريكية بأكملها تقريبًا مكشوفة”.