في ديسمبر ، أبل أعلنت أنها كانت تقتل أداة مسح ضوئي مثيرة للجدل على iCloud ابتكرتها الشركة لمكافحة مواد الاعتداء الجنسي على الأطفال (CSAM) فيما قالت إنها طريقة للحفاظ على الخصوصية. قالت شركة Apple بعد ذلك إن جهودها لمكافحة CSAM ستركز بدلاً من ذلك على ميزات “سلامة الاتصالات” للأطفال ، والتي تم الإعلان عنها في البداية في أغسطس 2021. وفي مؤتمر المطورين العالمي للشركة في كوبرتينو اليوم ، أطلقت Apple توسعات للآلية ، بما في ذلك ميزة إضافية مصممة للبالغين.
تفحص سلامة الاتصالات الرسائل محليًا على أجهزة المستخدمين الصغار للإبلاغ عن المحتوى الذي يستقبله الأطفال أو يرسلونه على نظام iOS يحتوي على عُري. أعلنت Apple اليوم أن الميزة تتوسع أيضًا لتشمل رسائل فيديو FaceTime ، و Contact Posters في تطبيق الهاتف ، وأداة التقاط الصور حيث يختار المستخدمون الصور أو مقاطع الفيديو لإرسالها ، و AirDrop. تعني المعالجة على الجهاز أن Apple لا ترى أبدًا المحتوى الذي يتم وضع علامة عليه ، ولكن اعتبارًا من هذا الخريف ، سيتم تشغيل أمان الاتصالات افتراضيًا لجميع حسابات الأطفال – الأطفال دون سن 13 عامًا – في خطة المشاركة العائلية. يمكن للوالدين اختيار تعطيل الميزة إذا اختاروا ذلك.
يقول إريك نوينشواندر ، رئيس خصوصية المستخدم في شركة Apple: “ميزة أمان الاتصال هي إحدى الميزات التي نريد حقًا منح الطفل لحظة للتوقف فيها ونأمل أن يتم تعطيل ما قد يكون محادثة استمالة”. “لذا من المفترض أن يكون الاحتكاك عاليًا. من المفترض أن تكون هناك إجابة نعتقد أنها من المحتمل أن تكون صحيحة في حالة ذلك الطفل ، وهي عدم المضي قدمًا ، ونريد حقًا التأكد من أنهم متعلمون “.
قالت شركة آبل في ديسمبر / كانون الأول إنها تخطط لإتاحة واجهة برمجة التطبيقات (API) حتى يتمكن مطورو الطرف الثالث من دمج أمان الاتصالات بسهولة في تطبيقاتهم واستخدامها لاكتشاف مواد الاعتداء الجنسي على الأطفال ، أو CSAM. واجهة برمجة التطبيقات ، المعروفة باسم إطار عمل تحليل المحتوى الحساس ، متاحة الآن للمطورين. قالت منصات مثل Discord بالفعل إنها تخطط لدمجه في تطبيقات iOS الخاصة بهم.