لقد أصبح بو لي، الأستاذ المشارك في جامعة شيكاغو والمتخصص في اختبار الإجهاد وتحفيز نماذج الذكاء الاصطناعي للكشف عن السلوكيات الخاطئة، مصدرًا موثوقًا به لبعض شركات الاستشارات. وغالبًا ما تهتم هذه الشركات الاستشارية الآن بمدى ذكاء نماذج الذكاء الاصطناعي مقارنة بمدى إشكاليتها ــ قانونيًا وأخلاقيًا ومن حيث الامتثال التنظيمي.
وقد قام لي وزملاؤه من عدة جامعات أخرى، بالإضافة إلى Virtue AI، التي شارك في تأسيسها لي، وLapis Labs، بتطوير تصنيف لمخاطر الذكاء الاصطناعي إلى جانب معيار يكشف عن مدى انتهاك نماذج اللغة الكبيرة المختلفة للقواعد. يقول لي لـ WIRED: “نحن بحاجة إلى بعض المبادئ لسلامة الذكاء الاصطناعي، من حيث الامتثال التنظيمي والاستخدام العادي”.
قام الباحثون بتحليل اللوائح والمبادئ التوجيهية الحكومية للذكاء الاصطناعي، بما في ذلك تلك الخاصة بالولايات المتحدة والصين والاتحاد الأوروبي، ودرسوا سياسات الاستخدام لـ 16 شركة رئيسية للذكاء الاصطناعي من جميع أنحاء العالم.
كما قام الباحثون ببناء AIR-Bench 2024، وهو معيار يستخدم آلاف الإشارات لتحديد مدى نجاح نماذج الذكاء الاصطناعي الشائعة من حيث المخاطر المحددة. على سبيل المثال، يظهر أن Claude 3 Opus من Anthropic يحتل مرتبة عالية عندما يتعلق الأمر برفض توليد تهديدات الأمن السيبراني، بينما يحتل Gemini 1.5 Pro من Google مرتبة عالية من حيث تجنب توليد عُري جنسي غير توافقي.
سجل طراز DBRX Instruct، الذي طورته شركة Databricks، أسوأ نتيجة على الإطلاق. وعندما أطلقت الشركة طرازها في مارس/آذار، قالت إنها ستواصل تحسين ميزات الأمان في طراز DBRX Instruct.
ولم تستجب كل من أنثروبيك وجوجل وداتابريكس على الفور لطلب التعليق.
إن فهم المشهد المحفوف بالمخاطر، فضلاً عن إيجابيات وسلبيات نماذج معينة، قد يصبح أكثر أهمية بالنسبة للشركات التي تسعى إلى نشر الذكاء الاصطناعي في أسواق معينة أو لحالات استخدام معينة. على سبيل المثال، قد تهتم الشركة التي تسعى إلى استخدام درجة الماجستير في القانون لخدمة العملاء بمدى ميل النموذج إلى إنتاج لغة مسيئة عند استفزازه أكثر من مدى قدرته على تصميم جهاز نووي.
ويقول بو إن التحليل يكشف أيضاً عن بعض القضايا المثيرة للاهتمام فيما يتصل بكيفية تطوير الذكاء الاصطناعي وتنظيمه. على سبيل المثال، وجد الباحثون أن القواعد الحكومية أقل شمولاً من سياسات الشركات بشكل عام، مما يشير إلى وجود مجال لتشديد القواعد التنظيمية.
وتشير التحليلات أيضًا إلى أن بعض الشركات يمكنها بذل المزيد من الجهود لضمان سلامة نماذجها. ويقول بو: “إذا اختبرت بعض النماذج وفقًا لسياسات الشركة الخاصة، فلن تكون متوافقة بالضرورة. وهذا يعني أن هناك مجالًا كبيرًا لتحسينها”.
ويحاول باحثون آخرون إعادة النظام إلى المشهد الفوضوي والمربك للمخاطر المرتبطة بالذكاء الاصطناعي. ففي هذا الأسبوع، كشف باحثان في معهد ماساتشوستس للتكنولوجيا عن قاعدة بيانات خاصة بهما عن مخاطر الذكاء الاصطناعي، والتي تم تجميعها من 43 إطار عمل مختلف لمخاطر الذكاء الاصطناعي. ويقول نيل تومسون، وهو باحث علمي في معهد ماساتشوستس للتكنولوجيا ومشارك في المشروع: “لا تزال العديد من المنظمات في مرحلة مبكرة جدًا من عملية تبني الذكاء الاصطناعي”، وهذا يعني أنها بحاجة إلى إرشادات بشأن المخاطر المحتملة.
يقول بيتر سلاتري، قائد المشروع والباحث في مجموعة FutureTech التابعة لمعهد ماساتشوستس للتكنولوجيا، والتي تدرس التقدم في مجال الحوسبة، إن قاعدة البيانات تسلط الضوء على حقيقة مفادها أن بعض مخاطر الذكاء الاصطناعي تحظى باهتمام أكبر من غيرها. على سبيل المثال، تشير أكثر من 70% من الأطر إلى قضايا الخصوصية والأمان، ولكن حوالي 40% فقط تشير إلى المعلومات المضللة.
إن الجهود المبذولة لتصنيف وقياس مخاطر الذكاء الاصطناعي لابد وأن تتطور مع تطور الذكاء الاصطناعي. وتقول لي إنه من المهم استكشاف القضايا الناشئة مثل الالتصاق العاطفي لنماذج الذكاء الاصطناعي. وقد قامت شركتها مؤخرا بتحليل أكبر وأقوى نسخة من نموذج ميتا لاما 3.1. ووجدت أنه على الرغم من أن النموذج أكثر قدرة، إلا أنه ليس أكثر أمانا بكثير، وهو ما يعكس انقطاعا أوسع نطاقا. وتقول لي: “إن السلامة لا تتحسن بشكل كبير حقا”.