من السهل أن خداع نماذج اللغات الكبيرة التي تشغل برامج الدردشة الآلية مثل ChatGPT من OpenAI وBard من Google. وفي إحدى التجارب التي أجريت في شهر فبراير، أجبر الباحثون الأمنيون برنامج Bing chatbot التابع لشركة Microsoft على التصرف مثل المحتال. تعليمات مخفية على صفحة ويب أنشأها الباحثون تطلب من برنامج الدردشة الآلي أن يطلب من الشخص الذي يستخدمه تسليم تفاصيل حسابه المصرفي. هذا النوع من الهجمات، حيث يمكن للمعلومات المخفية أن تجعل نظام الذكاء الاصطناعي يتصرف بطرق غير مقصودة، هو مجرد البداية.
وقد تم إنشاء مئات الأمثلة على هجمات “الحقن الفوري غير المباشر” منذ ذلك الحين. يعتبر هذا النوع من الهجوم الآن أحد أكثر الطرق المثيرة للقلق التي يمكن من خلالها إساءة استخدام نماذج اللغة من قبل المتسللين. مع تشغيل أنظمة الذكاء الاصطناعي التوليدية من قبل الشركات الكبرى والشركات الناشئة الصغيرة، تسعى صناعة الأمن السيبراني جاهدة لرفع مستوى الوعي بالمخاطر المحتملة. ومن خلال القيام بذلك، يأملون في الحفاظ على البيانات – سواء الشخصية أو الخاصة بالشركة – آمنة من الهجوم. في الوقت الحالي، لا يوجد حل سحري واحد، ولكن ممارسات الأمان الشائعة يمكن أن تقلل من المخاطر.
يقول فيجاي بولينا، كبير مسؤولي أمن المعلومات في وحدة الذكاء الاصطناعي DeepMind في جوجل: “إن الحقن الفوري غير المباشر يمثل بالتأكيد مصدر قلق بالنسبة لنا”، مضيفًا أن جوجل لديها العديد من المشاريع الجارية لفهم كيفية مهاجمة الذكاء الاصطناعي. تقول بولينا إن الحقن الفوري كان يعتبر في الماضي “مشكلة”، لكن الأمور تسارعت منذ أن بدأ الناس في ربط نماذج اللغات الكبيرة (LLMs) بالإنترنت والمكونات الإضافية، والتي يمكن أن تضيف بيانات جديدة إلى الأنظمة. نظرًا لأن المزيد من الشركات تستخدم LLMs، مما قد يزودها بالمزيد من البيانات الشخصية وبيانات الشركة، فسوف تصبح الأمور فوضوية. تقول بولينا: “نعتقد بالتأكيد أن هذا يمثل خطرًا، وهو يحد في الواقع من الاستخدامات المحتملة لدرجة الماجستير في القانون بالنسبة لنا كصناعة”.
تنقسم هجمات الحقن الفوري إلى فئتين: مباشرة وغير مباشرة. وهذا الأخير هو الذي يسبب القلق الأكبر بين خبراء الأمن. عند استخدام LLM، يطرح الأشخاص أسئلة أو يقدمون تعليمات في المطالبات التي يجيب عليها النظام بعد ذلك. يحدث الحقن الفوري المباشر عندما يحاول شخص ما تقديم إجابة ماجستير في القانون بطريقة غير مقصودة، مما يجعله ينطق بخطاب يحض على الكراهية أو إجابات ضارة، على سبيل المثال. إن الحقن السريعة غير المباشرة، وهي تلك المثيرة للقلق حقًا، ترفع الأمور إلى مستوى أعلى. وبدلاً من قيام المستخدم بإدخال مطالبة ضارة، تأتي التعليمات من جهة خارجية. يمكن أن يحتوي موقع الويب الذي يمكن لـ LLM قراءته، أو ملف PDF الذي يتم تحليله، على سبيل المثال، على تعليمات مخفية ليتبعها نظام الذكاء الاصطناعي.
يقول ريتش هارانج، مهندس الأمن الرئيسي الذي يركز على أنظمة الذكاء الاصطناعي في شركة Nvidia: “الخطر الأساسي الكامن وراء كل هذه الأمور، بالنسبة للتعليمات السريعة المباشرة وغير المباشرة، هو أن كل من يقدم مدخلات إلى LLM يتمتع بدرجة عالية من التأثير على المخرجات”. ، أكبر صانع لرقائق الذكاء الاصطناعي في العالم. ببساطة: إذا كان بإمكان شخص ما وضع البيانات في ماجستير إدارة الأعمال، فمن المحتمل أن يتمكن من التلاعب بما يبثه مرة أخرى.
لقد أظهر الباحثون الأمنيون كيف يمكن استخدام الحقن الفوري غير المباشر لسرقة البيانات، والتلاعب بالسيرة الذاتية لشخص ما، وتشغيل التعليمات البرمجية عن بعد على الجهاز. صنفت مجموعة من الباحثين الأمنيين الحقن الفوري على أنه أكبر ثغرة أمنية لأولئك الذين ينشرون ويديرون LLMs. وقد لفت المركز الوطني للأمن السيبراني، وهو فرع من وكالة الاستخبارات البريطانية GCHQ، الانتباه إلى خطر الهجمات السريعة، قائلاً إن هناك مئات الأمثلة حتى الآن. وحذر فرع GCHQ في منشور بالمدونة: “في حين أن البحث مستمر في الحقن الفوري، فقد يكون الأمر ببساطة مشكلة متأصلة في تكنولوجيا LLM”. “هناك بعض الاستراتيجيات التي يمكن أن تجعل الحقن الفوري أكثر صعوبة، ولكن حتى الآن لا توجد وسائل تخفيف مؤكدة.”