نشرت مجموعة من الباحثين في جامعات أمريكية وسويسرية ، بالتعاون مع Google وفرعها DeepMind ، ورقة بحثية تشرح كيف يمكن للبيانات أن تتسرب من منصات إنشاء الصور التي تعتمد على نماذج الذكاء الاصطناعي التوليدية مثل: DALLE أو Imagen أو انتشار مستقر.
تعمل جميعها بنفس الطريقة بناءً على كتابة جانب المستخدم في موجه نص معين ، على سبيل المثال “كرسي بذراعين على شكل أفوكادو” ، والحصول على صورة نصية في غضون ثوانٍ.
تم تدريب نماذج الذكاء الاصطناعي التوليدية المستخدمة في هذه المنصات على عدد كبير جدًا من الصور مع وصف محدد مسبقًا. الفكرة هي أن الشبكات العصبية قادرة على إنشاء صور جديدة وفريدة من نوعها بعد معالجة كمية هائلة من بيانات التدريب.
ومع ذلك ، تظهر الدراسة الجديدة أن هذه الصور ليست فريدة دائمًا. في بعض الحالات ، يمكن للشبكة العصبية إعادة إنتاج صورة مطابقة تمامًا للصورة السابقة المستخدمة في التدريب. هذا يعني أن الشبكات العصبية قد تكشف عن غير قصد معلومات خاصة.
تتحدى هذه الدراسة الآراء القائلة بأن نماذج الذكاء الاصطناعي المستخدمة لإنشاء الصور لا تحفظ بيانات التدريب الخاصة بها ، وأن بيانات التدريب قد تظل خاصة إذا لم يتم الكشف عنها.
قم بتوفير المزيد من البيانات
يمكن أن تكون نتائج أنظمة التعلم العميق مذهلة لغير المتخصصين ، ويمكنهم أن يظنوا أنها سحرية ، ولكن في الواقع لا يوجد سحر في الأمر ، حيث أن جميع الشبكات العصبية تعتمد في عملها على نفس المبدأ ، وهو التدريب باستخدام مجموعة كبيرة من البيانات ، ووصف دقيق لكل صورة ، على سبيل المثال: سلسلة من صور القطط والكلاب.
بعد التدريب ، تعرض الشبكة العصبية صورة جديدة ويطلب منها أن تقرر ما إذا كانت قطة أم كلب. من هذه النقطة المتواضعة ، ينتقل مطورو هذه النماذج إلى سيناريوهات أكثر تعقيدًا ، حيث ينشئون صورة لحيوان أليف غير موجود باستخدام خوارزمية تم تدريبها على العديد من صور القطط. لا يتم إجراء هذه التجارب بالصور فحسب ، بل أيضًا باستخدام النصوص والفيديو وحتى الصوت.
نقطة البداية لجميع الشبكات العصبية هي مجموعة بيانات التدريب. لا تستطيع الشبكات العصبية إنشاء كائنات جديدة من فراغ. على سبيل المثال ، لإنشاء صورة قطة ، يجب أن تدرس الخوارزمية آلاف الصور الحقيقية أو رسومات القطط.
الذكاء الاصطناعي iStock
جهود كبيرة للحفاظ على سرية مجموعات البيانات
في ورقتهم ، يولي الباحثون اهتمامًا خاصًا لنماذج التعلم الآلي. إنهم يعملون على النحو التالي: يشوهون بيانات التدريب صور الأشخاص والسيارات والمنازل وما إلى ذلك عن طريق إضافة الضوضاء. بعد ذلك ، يتم تدريب الشبكة العصبية على استعادة هذه الصور إلى حالتها الأصلية.
تتيح هذه الطريقة إمكانية إنشاء صور ذات جودة مقبولة ، ولكن العيب المحتمل مقارنة بالخوارزميات في الشبكات التنافسية التوليدية ، على سبيل المثال هو ميلها الأكبر لتسريب البيانات. يمكن استخراج البيانات الأصلية منه بثلاث طرق مختلفة على الأقل وهي:
استخدام استعلامات محددة لإجبار الشبكة العصبية على إخراج صورة مصدر معينة ، وليس شيئًا فريدًا تم إنشاؤه استنادًا إلى آلاف الصور.
يمكن إعادة بناء الصورة الأصلية حتى في حالة توفر جزء منها فقط.
من الممكن تحديد ما إذا كانت صورة معينة متضمنة في بيانات التدريب أم لا.
في كثير من الأحيان ، تكون الشبكات العصبية كسولة وبدلاً من إنتاج صورة جديدة ، فإنها تنتج شيئًا من مجموعة التدريب إذا كانت تحتوي على نسخ متعددة من نفس الصورة. إذا تكررت صورة في مجموعة التدريب أكثر من مائة مرة ، فهناك احتمال كبير جدًا أن يتم تسريبها في شكلها شبه الأصلي.
ومع ذلك ، أظهر الباحثون طرقًا لاسترداد صور التدريب التي ظهرت مرة واحدة فقط في المجموعة الأصلية. من بين 500 صورة اختبرها الباحثون ، أعادت الخوارزمية إنشاء ثلاث منها بشكل عشوائي.
من الذي سرق؟
في يناير 2023 ، رفع ثلاثة فنانين دعوى قضائية ضد منصات توليد الصور القائمة على الذكاء الاصطناعي لاستخدام صورهم عبر الإنترنت لتدريب عارضاتهم دون أي احترام لحقوق النشر.
يمكن للشبكة العصبية في الواقع نسخ أسلوب الفنان ، وبالتالي حرمانه من الدخل. تشير الورقة البحثية إلى أنه في بعض الحالات ، يمكن للخوارزميات ، لأسباب مختلفة ، أن تنخرط في سرقة أدبية صريحة ، وتنتج رسومات وصورًا وصورًا أخرى تتطابق تقريبًا مع أعمال الأشخاص الحقيقيين.
لذلك قدم الباحثون توصيات لتعزيز خصوصية مجموعة التدريب الأصلية:
1 القضاء على التكرار في مجموعات التدريب.
2 إعادة معالجة صور التدريب ، على سبيل المثال عن طريق إضافة ضوضاء أو تغيير السطوع ؛ هذا يجعل تسرب البيانات أقل احتمالا.
3 اختبار الخوارزمية باستخدام صور تدريبية خاصة ، ثم التحقق من أنها لا تقوم بإعادة إنتاجها بدقة دون قصد.
ما التالي؟
أثارت منصات الفن التوليدي بالتأكيد نقاشًا مثيرًا للاهتمام مؤخرًا ، وهو النقاش الذي يجب البحث فيه عن توازن بين الفنانين ومطوري التكنولوجيا. من ناحية ، يجب احترام حقوق النشر ، ومن ناحية أخرى ، هل يختلف الفن الذي تم إنشاؤه بواسطة الذكاء الاصطناعي كثيرًا عن الفن البشري؟
لكن لنتحدث عن الأمن. تقدم الورقة مجموعة محددة من الحقائق حول نموذج واحد فقط للتعلم الآلي. بتوسيع المفهوم ليشمل جميع الخوارزميات المتشابهة ، نصل إلى موقف مثير للاهتمام. ليس من الصعب تخيل سيناريو يقوم فيه مساعد ذكي لمشغل شبكة الهاتف المحمول بتسليم معلومات الشركة الحساسة استجابةً لاستعلام المستخدم ، أو يكتب نصًا محتالًا يدفع شبكة عصبية عامة لإنشاء نسخة من جواز سفر شخص ما. ومع ذلك ، يؤكد الباحثون أن مثل هذه المشاكل لا تزال نظرية في الوقت الحاضر.
ولكن هناك مشكلات حقيقية أخرى نواجهها الآن ، مثل نماذج إنشاء البرامج النصية مثل: تُستخدم الآن ChatGPT لكتابة تعليمات برمجية ضارة حقيقية.
ويساعد GitHub Copilot المبرمجين على كتابة التعليمات البرمجية باستخدام كمية هائلة من البرامج مفتوحة المصدر كمدخلات. والأداة لا تحترم دائمًا حقوق الطبع والنشر وخصوصية المؤلفين الذين ينتهي المطاف برموزهم في مجموعة موسعة جدًا من بيانات التدريب.
مع تطور الشبكات العصبية ، ستتطور الهجمات ضدها ، مع عواقب لم يفهمها أحد بعد.