كود مخفي في الداخل كشف باحثون هذا الأسبوع أن اللوحات الأم للكمبيوتر الشخصي تركت ملايين الأجهزة عرضة للتحديثات الضارة. وجد الموظفون في شركة Eclypsium الأمنية رمزًا في مئات النماذج من اللوحات الأم التي أنشأتها الشركة المصنعة التايوانية Gigabyte والتي سمحت لبرنامج التحديث بتنزيل برنامج آخر وتشغيله. بينما كان النظام يهدف إلى تحديث اللوحة الأم ، وجد الباحثون أن الآلية تم تنفيذها بشكل غير آمن ، مما قد يسمح للمهاجمين باختراق الباب الخلفي وتثبيت البرامج الضارة.
في مكان آخر ، كشفت شركة الأمن السيبراني Kaspersky ومقرها موسكو أن موظفيها قد تم استهدافهم من خلال البرامج الضارة المكتشفة حديثًا والتي لا تنقر على أجهزة iPhone. تم إرسال رسالة ضارة إلى الضحايا ، بما في ذلك مرفق ، على iMessage الخاص بشركة Apple. بدأ الهجوم تلقائيًا في استغلال نقاط ضعف متعددة لمنح المهاجمين إمكانية الوصول إلى الأجهزة ، قبل أن تحذف الرسالة نفسها. تقول Kaspersky إنها تعتقد أن الهجوم أثر على عدد أكبر من الأشخاص من مجرد موظفيها. في نفس اليوم الذي كشفت فيه Kaspersky عن هجوم iOS ، زعم جهاز الأمن الفيدرالي الروسي ، المعروف أيضًا باسم FSB ، أن الآلاف من الروس قد استُهدفوا بواسطة برامج ضارة جديدة لنظام iOS واتهموا وكالة الأمن القومي الأمريكية (NSA) بتنفيذ الهجوم. كما زعمت وكالة المخابرات الروسية أن شركة آبل ساعدت وكالة الأمن القومي. لم ينشر FSB تفاصيل فنية لدعم مزاعمه ، وقالت شركة Apple إنها لم تدخل أبدًا بابًا خلفيًا في أجهزتها.
إذا لم يكن هذا تشجيعًا كافيًا لتحديث أجهزتك ، فقد جمعنا جميع تصحيحات الأمان الصادرة في مايو. أصدرت كل من Apple و Google و Microsoft تصحيحات مهمة الشهر الماضي — انطلق وتأكد من تحديثك.
وهناك المزيد. كل أسبوع نجمع القصص الأمنية التي لم نقم بتغطيتها بعمق. اضغط على العناوين لقراءة القصص كاملة. وابقى آمنا هناك.
حذرت لينا خان ، رئيسة لجنة التجارة الفيدرالية الأمريكية ، هذا الأسبوع من أن الوكالة ترى مجرمين يستخدمون أدوات ذكاء اصطناعي “لتكثيف” عمليات الاحتيال والاحتيال. التعليقات ، التي تم الإدلاء بها في نيويورك وأبلغت عنها بلومبرج لأول مرة ، استشهدت بأمثلة على تقنية استنساخ الصوت حيث تم استخدام الذكاء الاصطناعي لخداع الناس ليعتقدوا أنهم يسمعون صوت أحد أفراد الأسرة.
جعلت التطورات الحديثة في التعلم الآلي من الممكن تقليد أصوات الأشخاص من خلال بضع مقاطع قصيرة من بيانات التدريب – على الرغم من أن الخبراء يقولون إن المقاطع الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي يمكن أن تختلف اختلافًا كبيرًا من حيث الجودة. ومع ذلك ، في الأشهر الأخيرة ، تم الإبلاغ عن ارتفاع في عدد محاولات الاحتيال التي تضمنت على ما يبدو مقاطع صوتية تم إنشاؤها. قال خان إن المسؤولين والمشرعين “بحاجة إلى توخي اليقظة في وقت مبكر” وأنه بينما يتم النظر في القوانين الجديدة التي تحكم الذكاء الاصطناعي ، لا تزال القوانين الحالية سارية على العديد من الحالات.
في اعتراف نادر بالفشل ، قال قادة كوريا الشمالية إن محاولة الدولة المنبوذة وضع قمر صناعي للتجسس في المدار لم تسير كما هو مخطط لها هذا الأسبوع. وقالوا أيضًا إن البلاد ستحاول إطلاقًا آخر في المستقبل. في 31 مايو ، تم إطلاق صاروخ Chollima-1 ، الذي كان يحمل القمر الصناعي ، بنجاح ، لكن مرحلته الثانية فشلت ، مما تسبب في غرق الصاروخ في البحر. أدى الإطلاق إلى حالة تأهب إخلاء طارئة في كوريا الجنوبية ، لكن المسؤولين تراجعوا عن ذلك لاحقًا.
كان القمر الصناعي هو أول قمر صناعي رسمي للتجسس لكوريا الشمالية ، والذي يقول الخبراء إنه سيمنحه القدرة على مراقبة شبه الجزيرة الكورية. أطلقت البلاد سابقًا أقمارًا صناعية ، لكن الخبراء يعتقدون أنهم لم يرسلوا صورًا إلى كوريا الشمالية. يأتي الإطلاق الفاشل في وقت يشهد توترات شديدة في شبه الجزيرة ، حيث تواصل كوريا الشمالية محاولة تطوير أسلحة وصواريخ عالية التقنية. رداً على الإطلاق ، أعلنت كوريا الجنوبية فرض عقوبات جديدة على مجموعة Kimsuky للقرصنة ، المرتبطة بكوريا الشمالية ، ويقال إنها سرقت معلومات سرية مرتبطة بتطوير الفضاء.
في السنوات الأخيرة ، خضعت أمازون للتدقيق بسبب ضوابط متساهلة على بيانات الأشخاص. هذا الأسبوع ، قامت لجنة التجارة الفيدرالية الأمريكية ، بدعم من وزارة العدل ، بضرب عملاق التكنولوجيا بتسويتين لسلسلة من الإخفاقات المتعلقة ببيانات الأطفال وكاميراتها المنزلية الذكية Ring.
في إحدى الحالات ، يقول المسؤولون ، تجسست موظفة سابقة في Ring على زبائن من الإناث في عام 2017 – اشترت أمازون شركة Ring في عام 2018 – وشاهدت مقاطع فيديو لهن في غرف نومهن وحماماتهن. تقول لجنة التجارة الفيدرالية (FTC) إن Ring قد منح فريق العمل “وصولاً واسع النطاق بشكل خطير” إلى مقاطع الفيديو وكان لديه “موقف متساهل تجاه الخصوصية والأمان”. في بيان منفصل ، قالت لجنة التجارة الفيدرالية (FTC) إن أمازون احتفظت بتسجيلات الأطفال باستخدام مساعدها الصوتي Alexa ولم تحذف البيانات عندما طلبها الآباء.
أمرت لجنة التجارة الفيدرالية (FTC) أمازون بدفع حوالي 30 مليون دولار استجابةً للتسويتين وإدخال بعض تدابير الخصوصية الجديدة. ولعل الأمر الأكثر أهمية هو أن لجنة التجارة الفيدرالية قالت إن أمازون يجب أن تحذف أو تدمر تسجيلات Ring من قبل مارس 2018 بالإضافة إلى أي “نماذج أو خوارزميات” تم تطويرها من البيانات التي تم جمعها بشكل غير صحيح. يجب أن يوافق القاضي على الأمر قبل تنفيذه. قالت أمازون إنها لا تتفق مع لجنة التجارة الفيدرالية ، وتنفي “انتهاك القانون” ، لكنها أضافت أن “المستوطنات وضعت هذه الأمور وراءنا”.
بينما تتسابق الشركات في جميع أنحاء العالم لبناء أنظمة ذكاء اصطناعي توليدية في منتجاتها ، فإن صناعة الأمن السيبراني تدخل في هذا النشاط. هذا الأسبوع ، افتتح OpenAI ، مبتكر أنظمة إنشاء النصوص والصور ChatGPT و Dall-E ، برنامجًا جديدًا لتحديد أفضل السبل لاستخدام الذكاء الاصطناعي بواسطة متخصصي الأمن السيبراني. يقدم المشروع منحًا لمن يطورون أنظمة جديدة.
اقترحت شركة OpenAI عددًا من المشاريع المحتملة ، بدءًا من استخدام التعلم الآلي لاكتشاف جهود الهندسة الاجتماعية وإنتاج ذكاء التهديدات لفحص شفرة المصدر بحثًا عن نقاط الضعف وتطوير مواضع الجذب لاعتراض المتسللين. في حين أن التطورات الأخيرة للذكاء الاصطناعي كانت أسرع مما توقع العديد من الخبراء ، فقد تم استخدام الذكاء الاصطناعي في صناعة الأمن السيبراني لعدة سنوات – على الرغم من أن العديد من الادعاءات لا ترقى بالضرورة إلى مستوى الضجيج.
يتحرك سلاح الجو الأمريكي بسرعة في اختبار الذكاء الاصطناعي في الآلات الطائرة – في يناير ، اختبر طائرة تكتيكية يقودها الذكاء الاصطناعي. ومع ذلك ، بدأ تداول هذا الأسبوع ادعاء جديد: خلال اختبار محاكاة ، بدأت طائرة بدون طيار يتحكم فيها الذكاء الاصطناعي في “مهاجمة” و “قتل” عامل بشري يشرف عليها ، لأنهم كانوا يمنعونها من تحقيق أهدافها.
قال كولنيل تاكر هاميلتون ، وفقًا لملخص حدث في الجمعية الملكية للطيران في لندن. استمر هاملتون في القول إنه عندما تم تدريب النظام على عدم قتل المشغل ، بدأ في استهداف برج الاتصالات الذي كان يستخدمه المشغل للتواصل مع الطائرة بدون طيار ، مما أوقف إرسال رسائله.
ومع ذلك ، يقول سلاح الجو الأمريكي إن المحاكاة لم تحدث قط. وقالت المتحدثة باسم الوزارة آن ستيفانيك إن التعليقات “خرجت من سياقها وكان من المفترض أن تكون قصصية”. أوضح هاميلتون أيضًا أنه “أخطأ في الكلام” وكان يتحدث عن “تجربة فكرية”.
على الرغم من ذلك ، فإن السيناريو الموصوف يسلط الضوء على الطرق غير المقصودة التي يمكن للأنظمة الآلية من خلالها ثني القواعد المفروضة عليها لتحقيق الأهداف التي تم وضعها لتحقيقها. تم استدعاء ألعاب المواصفات من قبل الباحثين ، وشهدت أمثلة أخرى نسخة محاكاة من تتريس أوقف اللعبة مؤقتًا لتجنب الخسارة ، وقتلت شخصية لعبة AI نفسها في المستوى الأول لتجنب الموت في المستوى التالي.