تزعم رسالة المشرعين أيضًا أن NIST يتم التعجيل بها لتحديد المعايير على الرغم من أن البحث في اختبار أنظمة الذكاء الاصطناعي لا يزال في مرحلة مبكرة. ونتيجة لذلك، هناك “خلاف كبير” بين خبراء الذكاء الاصطناعي حول كيفية العمل على أو حتى قياس وتحديد قضايا السلامة المتعلقة بالتكنولوجيا، كما جاء في التقرير. تدعي الرسالة أن “الوضع الحالي لمجال أبحاث سلامة الذكاء الاصطناعي يخلق تحديات أمام NIST أثناء قيامها بدورها القيادي في هذه القضية”.
وأكدت المتحدثة باسم NIST جنيفر هويرجو أن الوكالة تلقت الرسالة وقالت إنها “سترد عبر القنوات المناسبة”.
يقوم NIST ببعض الخطوات التي من شأنها زيادة الشفافية، بما في ذلك إصدار طلب للحصول على معلومات في 19 ديسمبر، والتماس مدخلات من خبراء وشركات خارجية بشأن معايير التقييم ونماذج الذكاء الاصطناعي. ومن غير الواضح ما إذا كان هذا ردًا على الرسالة التي أرسلها أعضاء الكونجرس.
المخاوف التي أثارها المشرعون يتقاسمها بعض خبراء الذكاء الاصطناعي الذين أمضوا سنوات في تطوير طرق لاستكشاف أنظمة الذكاء الاصطناعي. يقول رومان تشودري، عالم البيانات والرئيس التنفيذي لشركة Parity Consulting والمتخصص في اختبار نماذج الذكاء الاصطناعي بحثًا عن التحيز والمشكلات الأخرى: “باعتبارها هيئة علمية غير حزبية، فإن NIST هي أفضل أمل للتغلب على الضجيج والتكهنات حول مخاطر الذكاء الاصطناعي”. “لكن من أجل القيام بعملهم بشكل جيد، فإنهم يحتاجون إلى أكثر من مجرد التفويضات والتمنيات الطيبة”.
يقول ياسين جيرنيت، قائد التعلم الآلي والمجتمع في شركة Hugging Face، وهي شركة تدعم مشاريع الذكاء الاصطناعي مفتوحة المصدر، إن التكنولوجيا الكبرى لديها موارد أكثر بكثير من الوكالة التي تعطى دورًا رئيسيًا في تنفيذ خطة الذكاء الاصطناعي الطموحة للبيت الأبيض. يقول جيرنيت: “لقد قامت NIST بعمل رائع في المساعدة على إدارة مخاطر الذكاء الاصطناعي، لكن الضغط للتوصل إلى حلول فورية للمشاكل طويلة المدى يجعل مهمتهم صعبة للغاية”. “لديهم موارد أقل بكثير من الشركات التي تقوم بتطوير معظم أنظمة الذكاء الاصطناعي المرئية.”
تقول مارغريت ميتشل، كبيرة علماء الأخلاقيات في Hugging Face، إن السرية المتزايدة المحيطة بنماذج الذكاء الاصطناعي التجارية تجعل القياس أكثر صعوبة بالنسبة لمؤسسة مثل NIST. وتقول: “لا يمكننا تحسين ما لا نستطيع قياسه”.
ويدعو الأمر التنفيذي للبيت الأبيض NIST إلى أداء العديد من المهام، بما في ذلك إنشاء معهد جديد لسلامة الذكاء الاصطناعي لدعم تطوير الذكاء الاصطناعي الآمن. وفي إبريل/نيسان، تم الإعلان عن تشكيل فريق عمل بريطاني يركز على سلامة الذكاء الاصطناعي. وسوف تتلقى 126 مليون دولار في التمويل الأولي.
أعطى الأمر التنفيذي NIST موعدًا نهائيًا صارمًا للتوصل إلى، من بين أمور أخرى، مبادئ توجيهية لتقييم نماذج الذكاء الاصطناعي، ومبادئ نماذج “الفريق الأحمر” (اختبار الخصومة)، ووضع خطة لإقناع الدول المتحالفة مع الولايات المتحدة بالموافقة على معايير NIST. والتوصل إلى خطة “لتطوير المعايير الفنية العالمية المسؤولة لتطوير الذكاء الاصطناعي”.
على الرغم من أنه ليس من الواضح كيف تتعامل NIST مع شركات التكنولوجيا الكبرى، إلا أن المناقشات حول إطار إدارة المخاطر في NIST، والتي جرت قبل الإعلان عن الأمر التنفيذي، شملت شركة Microsoft؛ Anthropic، وهي شركة ناشئة أنشأها موظفون سابقون في OpenAI تعمل على بناء نماذج ذكاء اصطناعي متطورة؛ الشراكة في مجال الذكاء الاصطناعي، والتي تمثل شركات التكنولوجيا الكبرى؛ ومعهد مستقبل الحياة، وهو منظمة غير ربحية مخصصة للمخاطر الوجودية، من بين أمور أخرى.
يقول تشودري: “باعتباري عالمًا اجتماعيًا كميًا، فإنني أحب وأكره في نفس الوقت إدراك الناس أن القوة تكمن في القياس”.