وزارة الدفاع تستخدم الذكاء الاصطناعي (AI) لمساعدة أعضاء الخدمة في اكتشاف التزييف العميق الذي يمكن أن يشكل تهديدًا للأمن القومي.
جعلت تقنيات الذكاء الاصطناعي التوليدية من السهل أكثر من أي وقت مضى إنشاء صور مزيفة واقعية ، والتي تم تصميمها لتقليد صوت وصورة شخص حقيقي لخداع عارض غير متعمد. في سياق الأمن القومي ، يمكن استخدام تقنية التزييف العميق لخداع أفراد الجيش أو المخابرات لإفشاء معلومات حساسة لخصم للولايات المتحدة يتظاهر بأنه زميل موثوق به.
منحت وزارة الدفاع الأمريكية مؤخرًا عقدًا لشركة DeepMedia الناشئة في وادي السيليكون للاستفادة من تقنيات اكتشاف التزييف العميق المستندة إلى الذكاء الاصطناعي. ينص وصف منح العقد على أن الشركة ستوفر “كشف سريع ودقيق للتزييف العميق لمواجهة حرب المعلومات الروسية والصينية”.
“لقد تم التعاقد معنا لبناء خوارزميات التعلم الآلي القادرة على اكتشاف الوجوه أو الأصوات المُنشأة أو المعدلة صناعياً عبر كل لغة رئيسية ، عبر الأجناس والأعمار والأجناس ، وتطوير ذلك الذكاء الاصطناعي إلى نظام أساسي يمكن دمجه في DOD على قال ريجول جوبتا ، الرئيس التنفيذي والمؤسس المشارك لشركة DeepMedia.
الرئيس التنفيذي لشركة GOOGLE يصدر تحذيرًا بشأن مقاطع فيديو AI DEEPFAKE
وقال جوبتا: “هناك أيضًا تهديدات لأفراد من وزارة الدفاع ، من المجندين والضباط ، من أعلى أو أدنى مستوى يمكن أن تكون مزيفة بوجههم أو بأصواتهم ويمكن استخدامها للحصول على معلومات سرية للغاية من قبل خصومنا على الصعيد الدولي”. .
الذكاء الاصطناعي التوليدي و نماذج اللغات الكبيرة تساعد في تشغيل أنظمة اكتشاف التزييف العميق في DeepMedia.
وقال: “يمكن للذكاء الاصطناعي الخاص بنا أن يأخذ في الواقع صوتًا أو مقطع فيديو ، ويستخرج الوجوه والأصوات من هذا الجزء من المحتوى تلقائيًا ثم تشغيل الوجه أو الصوت أو كليهما من خلال خوارزميات الكشف الخاصة بنا”. “تم تدريب خوارزميات الاكتشاف الخاصة بنا على ملايين العينات الحقيقية والمزيفة عبر 50 لغة مختلفة وتمكنت من تحديد ما إذا كان شيء ما حقيقيًا أم أنه تم التلاعب به بطريقة ما”.
كيف شكل الذكاء الاصطناعي الانتخابات الرئاسية الحيوية لحلفاء الناتو
“عندما تحدد أن جزءًا من المحتوى قد تم التلاعب به ، فإنه يبرز وينبه مستخدم وزارة الدفاع لهذه الحقيقة وسيحدد بالضبط أي جزء من الصوت أو الفيديو تم التلاعب به ، والهدف من هذا التلاعب ، وما هي الخوارزمية تم استخدامه لإنشاء هذا التلاعب حتى يتمكن المحللون في وزارة الدفاع من تصعيد ذلك إلى الشخص المناسب من نهايتهم “، أوضح جوبتا.
أشارت المؤسس المشارك لشركة DeepMedia والمديرة التنفيذية للعمليات إيما براون إلى أن حرب روسيا ضد أوكرانيا قدمت مثالًا رئيسيًا على أهمية اكتشاف التزييف العميق متعدد اللغات. “في العام الماضي ، كان هناك تزييف عميق للرئيس زيلينسكي في بداية الحرب في أوكرانيا وجعلوه يلقي السلاح ، والطريقة الوحيدة التي أمكن اكتشافها في تلك المرحلة كانت لأن اللغويين كانوا يعرفون أن اللهجة كانت خاطئة. وهكذا هذه هي أنواع اللحظات التي يمكننا أتمتة داخل نظامنا بسبب تقنيتنا التوليدية “.
تؤدي أدوات الذكاء الاصطناعي التوليفية إلى زيادة الغش العميق
تعاقدت وزارة الدفاع سابقًا مع DeepMedia لإنشاء منصة مترجم عالمية “لتسريع ترجمة اللغة وتعزيزها بين الحلفاء”. لفتت حالة الاستخدام هذه لتكنولوجيا الشركة انتباه الأمم المتحدة، الذي قال غوبتا إنه يستفيد من قدرات الذكاء الاصطناعي التوليدية لـ DeepMedia “لتعزيز الترجمة الآلية والتوليف الصوتي عبر لغات العالم الرئيسية” – وهو مفهوم يسميه “التزييف العميق من أجل الخير”.
وأضاف: “كلما زاد عدد الأشخاص الذين يستخدمون هذا المنتج التوليدي ، زادت البيانات التي نحصل عليها من الجانب الحقيقي والمزيف ، مما يجعل اكتشافنا أفضل”. “يتم تشغيل أجهزة الكشف الخاصة بنا على الجانب التوليدي ، وكلما تحسنت أجهزة الكشف لدينا ، كانت مولداتنا أفضل أيضًا.”
كما تمت دعوة DeepMedia مؤخرًا من قِبل حكومة اليابان لمناقشة أخلاقيات الذكاء الاصطناعي وتنظيم تقنيات الذكاء الاصطناعي. قالت الشركة إنها ناقشت دمج تقنية DubSync الخاصة بها في أنظمة الحكومة اليابانية لتمكين التواصل في الوقت الفعلي مع الحلفاء العسكريين ، بالإضافة إلى منصة DeepMedia’s DeepID للمصادقة الكاملة على الاتصالات وإحباط هجمات التزييف العميق المحتملة من قبل الخصوم.