تعد متطلبات الإبلاغ ضرورية لتنبيه الحكومة إلى القدرات الجديدة التي يحتمل أن تكون خطيرة في نماذج الذكاء الاصطناعي القوية بشكل متزايد، كما يقول مسؤول حكومي أمريكي يعمل في قضايا الذكاء الاصطناعي. ويشير المسؤول، الذي طلب عدم الكشف عن هويته للتحدث بحرية، إلى اعتراف شركة OpenAI بشأن “الرفض غير المتسق لطلبات تصنيع عوامل الأعصاب” في نموذجها الأخير.
ويقول المسؤول إن متطلبات الإبلاغ ليست مرهقة للغاية. وهم يزعمون أنه، على عكس لوائح الذكاء الاصطناعي في الاتحاد الأوروبي والصين، يعكس قانون بايدن التنفيذي “نهجًا واسعًا للغاية وخفيفًا يستمر في تعزيز الابتكار”.
يرفض نيك ريس، الذي شغل منصب أول مدير للتكنولوجيا الناشئة في وزارة الأمن الداخلي من عام 2019 إلى عام 2023، الادعاءات المحافظة بأن شرط الإبلاغ سيعرض الملكية الفكرية للشركات للخطر. ويقول إن ذلك يمكن أن يفيد الشركات الناشئة في الواقع من خلال تشجيعها على تطوير نماذج ذكاء اصطناعي “أكثر كفاءة من الناحية الحسابية” وأقل ثقلاً في البيانات والتي تقع تحت عتبة الإبلاغ.
تقول آمي فيلدز ماير، التي ساعدت في صياغة مكتب بايدن التنفيذي كمسؤول تقني في البيت الأبيض، إن قوة الذكاء الاصطناعي تجعل الرقابة الحكومية أمرًا ضروريًا.
يقول فيلدز ماير: “نحن نتحدث عن الشركات التي تقول إنها تبني أقوى الأنظمة في تاريخ العالم”. “إن الالتزام الأول للحكومة هو حماية الناس. “ثق بي، لقد حصلنا على هذا” ليست حجة مقنعة بشكل خاص.
يشيد الخبراء بتوجيهات NIST الأمنية باعتبارها موردًا حيويًا لبناء الحماية في التكنولوجيا الجديدة. ويشيرون إلى أن نماذج الذكاء الاصطناعي المعيبة يمكن أن تؤدي إلى أضرار اجتماعية خطيرة، بما في ذلك التمييز في الإيجار والإقراض والخسارة غير الصحيحة للمنافع الحكومية.
يتطلب أمر الذكاء الاصطناعي الذي أصدره ترامب في ولايته الأولى أن تحترم أنظمة الذكاء الاصطناعي الفيدرالية الحقوق المدنية، وهو الأمر الذي سيتطلب البحث في الأضرار الاجتماعية.
رحبت صناعة الذكاء الاصطناعي إلى حد كبير بأجندة بايدن المتعلقة بالسلامة. يقول المسؤول الأمريكي: “ما نسمعه هو أنه من المفيد على نطاق واسع أن يتم توضيح هذه الأمور”. وبالنسبة للشركات الجديدة التي لديها فرق صغيرة، فإن ذلك “يعمل على توسيع قدرة موظفيها على معالجة هذه المخاوف”.
يقول مايكل دانيال، المستشار الإلكتروني الرئاسي السابق الذي يقود الآن تحالف التهديدات السيبرانية، وهي منظمة غير ربحية لتبادل المعلومات، إن التراجع عن مكتب بايدن التنفيذي من شأنه أن يرسل إشارة مثيرة للقلق مفادها أن “حكومة الولايات المتحدة ستتبع نهج عدم التدخل فيما يتعلق بسلامة الذكاء الاصطناعي”.
أما بالنسبة للمنافسة مع الصين، فيقول المدافعون عن منظمة أصحاب العمل إن قواعد السلامة ستساعد أمريكا في الواقع على الانتصار من خلال ضمان عمل نماذج الذكاء الاصطناعي الأمريكية بشكل أفضل من منافسيها الصينيين وحمايتها من التجسس الاقتصادي لبكين.
طريقان مختلفان للغاية
إذا فاز ترامب بالبيت الأبيض الشهر المقبل، توقع حدوث تغيير جذري في كيفية تعامل الحكومة مع سلامة الذكاء الاصطناعي.
يريد الجمهوريون منع أضرار الذكاء الاصطناعي من خلال تطبيق “قوانين الضرر والقوانين التشريعية الحالية” بدلاً من سن قيود جديدة واسعة النطاق على التكنولوجيا، كما يقول هيلبيرج، ويفضلون “التركيز بشكل أكبر على تعظيم الفرص التي يوفرها الذكاء الاصطناعي، بدلاً من التركيز بشكل مفرط على المخاطر”. التخفيف.” من المحتمل أن يؤدي ذلك إلى هلاك متطلبات إعداد التقارير وربما بعض إرشادات NIST.
وقد يواجه شرط الإبلاغ أيضًا تحديات قانونية الآن بعد أن أضعفت المحكمة العليا الاحترام الذي كانت المحاكم تمنحه للوكالات عند تقييم أنظمتها.
وقد تؤدي معارضة الحزب الجمهوري إلى تعريض شراكات اختبار الذكاء الاصطناعي التطوعية التي أقامتها NIST للخطر مع الشركات الرائدة. “ماذا يحدث لتلك الالتزامات في الإدارة الجديدة؟” يسأل المسؤول الأمريكي.
وقد أدى هذا الاستقطاب حول الذكاء الاصطناعي إلى إحباط خبراء التكنولوجيا الذين يخشون أن يقوض ترامب السعي إلى إيجاد نماذج أكثر أمانا.
يقول نيكول تورنر لي، مدير مركز الابتكار التكنولوجي التابع لمعهد بروكينجز: “إلى جانب وعود الذكاء الاصطناعي هناك مخاطر، ومن الضروري أن يواصل الرئيس القادم ضمان سلامة وأمن هذه الأنظمة”.