بالإضافة إلى CSAM ، يقول فاولر ، كانت هناك صور إباحية تم إنشاؤها من الذكاء الاصطناعى للبالغين في قاعدة البيانات بالإضافة إلى صور “SWAP” المحتملة. من بين الملفات ، لاحظ ما يبدو أنه صور لأشخاص حقيقيين ، والتي من المحتمل أن تستخدم لإنشاء “صور صريحة أو جنسية من الذكاء الاصطناعى” ، كما يقول. “لذلك كانوا يلتقطون صورًا حقيقية للأشخاص ويتبادلون وجوههم هناك” ، كما يدعي وجود بعض الصور التي تم إنشاؤها.
عندما كان مباشرًا ، سمح موقع Gennomis على صور البالغين الصريحة. العديد من الصور التي ظهرت على صفحتها الرئيسية ، وشمل قسم “النماذج” منظمة العفو الدولية صورًا جنسية للنساء-كانت بعضها “واقعية” بينما كان الآخرون ينشئونه تمامًا أو في أنماط متحركة. كما تضمنت معرض “NSFW” و “Marketplace” حيث يمكن للمستخدمين مشاركة الصور وبيع ألبومات الصور التي تم إنشاؤها من الذكاء الاصطناعي. قال سطر الوصف الخاص بالموقع إن الأشخاص يمكنهم “إنشاء صور ومقاطع فيديو غير مقيدة” ؛ وقال إصدار سابق من الموقع من عام 2024 إنه يمكن إنشاء “صور غير خاضعة للرقابة”.
ذكرت سياسات مستخدم جينوميس أن “المحتوى المحترم” مسموح به فقط ، قائلاً “العنف الصريح” ويحظر خطاب الكراهية. “المواد الإباحية للأطفال وأي أنشطة غير قانونية أخرى محظورة بشكل صارم على جينوميس” ، كما تقول إرشادات المجتمع ، قائلة إن الحسابات التي تنشر محتوى محظور. (قام الباحثون ودعاة الضحايا والصحفيين وشركات التكنولوجيا ، وأكثر من ذلك بتخزين عبارة “المواد الإباحية للأطفال” لصالح CSAM ، على مدى العقد الماضي).
ليس من الواضح إلى أي مدى استخدم جينوميس أي أدوات أو أنظمة الاعتدال لمنع أو حظر إنشاء CSAM الناتجة عن الذكاء الاصطناعي. نشر بعض المستخدمين على صفحة “المجتمع” العام الماضي أنهم لا يستطيعون توليد صور للأشخاص الذين يمارسون الجنس وأن مطالباتهم تم حظرها من أجل “الفكاهة المظلمة” غير الجنسية. حساب آخر تم نشره على صفحة المجتمع أنه يجب معالجة محتوى “NSFW” ، كما قد “قد ينظر إليه مجلس الاحتياطي الفيدرالي”.
“إذا تمكنت من رؤية تلك الصور التي لا تحتوي على شيء أكثر من عنوان URL ، فإن ذلك يوضح لي أنهم لا يتخذون جميع الخطوات اللازمة لمنع هذا المحتوى” ، يزعم فاولر عن قاعدة البيانات.
يقول هنري أجدر ، خبير DeepFake ومؤسس الاستشارات للاستشارات في مجال Consultancy Catent Space ، حتى لو لم يكن إنشاء محتوى ضار وغير قانوني من قبل الشركة ، وقد يكون هناك “ارتباط واضح مع محتوى حميم دون تدابير أمان”.
يقول أجدر إنه فوجئ أن موقع اللغة الإنجليزية مرتبط بكيان كوري جنوبي. في العام الماضي ، ابتليت البلاد بـ “حالة الطوارئ” غير المستقبلية التي تستهدف الفتيات ، قبل أن تتخذ تدابير لمكافحة موجة من إساءة استخدام Deepfake. يقول Ajder إن المزيد من الضغط يجب أن يتم وضعه على جميع أجزاء النظام الإيكولوجي الذي يسمح بإنشاء صور غير عادية باستخدام الذكاء الاصطناعي. “كلما رأينا أكثر ، كلما كان الأمر أكثر من ذلك السؤال على المشرعين ، على منصات التكنولوجيا ، على شركات استضافة المواقع ، على مقدمي خدمات الدفع. جميع الأشخاص الذين في شكل ما أو آخر ، عن قصد أو غير ذلك – في معظمهم غير مدركين – يسهلون حدوث ذلك وتمكينهم” ، كما يقول.
يقول فاولر إن قاعدة البيانات المكشوفة أيضًا ملفات ظهرت لتتضمن مطالبات الذكاء الاصطناعي. يقول الباحث إنه لم يتم تضمين بيانات مستخدم ، مثل تسجيل الدخول أو أسماء المستخدمين ، في البيانات المكشوفة. تُظهر لقطات المطالبات استخدام كلمات مثل “Tiny” و “Girl” ، والإشارات إلى الأفعال الجنسية بين أفراد الأسرة. كانت المطالبات تحتوي أيضًا على أعمال جنسية بين المشاهير.
يقول فاولر: “يبدو لي أن التكنولوجيا قد تسابق قبل أي من الإرشادات أو الضوابط”. “من وجهة نظر قانونية ، نعلم جميعًا أن الصور الصريحة للطفل غير قانونية ، لكن ذلك لم يمنع التكنولوجيا من القدرة على توليد تلك الصور.”
نظرًا لأن أنظمة الذكاء الاصطناعى التوليدي قد عززت بشكل كبير مدى سهولة إنشاء وتعديل الصور في العامين الماضيين ، فقد كان هناك انفجار في CSAM الناتجة عن الذكاء الاصطناعي. يقول ديريك راي هيل ، المدير التنفيذي المؤقت لمؤسسة الإنترنت (IWF) ، وهي غير ربحية على الإنترنت: “إن صفحات الويب التي تحتوي على مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها من الذكاء الاصطناعي قد قفزت أيضًا في التطور ، كما يقول ديريك راي هيل ، الرئيس التنفيذي المؤقت لمؤسسة الإنترنت (IWF) ، وهي غير ربحية مقرها المملكة المتحدة.
قامت IWF بتوثيق كيف يقوم المجرمون بإنشاء CSAM الذي تم إنشاؤه بواسطة AI وتطوير الأساليب التي يستخدمونها لإنشائها. يقول راي هيل: “من السهل جدًا حاليًا على المجرمين استخدام الذكاء الاصطناعى لإنشاء وتوزيع محتوى صريح جنسيًا للأطفال على نطاق واسع والسرعة”.