أصدرت لجنة التقييس التقني الوطني لأمن المعلومات، المسؤولة عن وضع معايير أمن المعلومات، مسودة إرشادات تهدف إلى تشديد قبضتها على خدمات الذكاء الاصطناعي التوليدي. تسلط الضوء على مسودة الإرشادات على اثنين من المخاوف الأساسية: حماية بيانات التدريب وتنظيم النماذج اللغوية الكبيرة المستخدمة في خدمات الذكاء الاصطناعي التوليدي.
تنص الإرشادات على ضرورة استخدام مطوري الذكاء الاصطناعي للبيانات المصرح بها فقط للتدريب والالتزام بالفحوص الأمنية لمنع خروقات البيانات وانتهاكات حقوق التأليف والنشر، وتعد هذه خطوة مهمة في التحكم في جودة وشرعية البيانات التي تغذي هذه الخوارزميات. ومع ذلك، فإن الأحكام المطبوعة الصغيرة تذكر أيضًا بوجود “نظام قائمة سوداء” لحظر أي مواد تدريبية تحتوي على أكثر من 5٪ من المحتوى غير القانوني أو الضار كما هو محدد في قوانين الأمن السيبراني في البلاد.
في حين أن هذه القواعد تهدف إلى ضمان أن تنتج خدمات الذكاء الاصطناعي محتوىً مسؤولاً وقانونيًا، فإنها تثير أيضًا تساؤلات مهمة حول الابتكار وحرية التعبير.
تشير الإرشادات إلى أنه يجب أن تستند الخوارزميات إلى نماذج تم تقديمها وتسجيلها من قبل السلطات. هذا يمكن أن يحد من مجال المطورين للتجربة والابتكار، مما قد يعيق نمو التقنية التي لها تطبيقات واسعة.
علاوة على ذلك، تضيف اللوائح طبقة أخرى إلى ذراع الرقابة الحكومية، ففي الصين غالبًا ما يتضمن “المحتوى غير القانوني” مواضيع سياسية حساسة مثل وضع تايوان، هناك قلق من أن يتم استخدام نماذج الذكاء الاصطناعي لنشر سرد واحد.
خلال الاختبارات الداخلية، لوحظ أن روبوتات الدردشة الصينية تعطي مجموعة متنوعة من الردود عند سؤالها عن وضع تايوان، وبعضها يرفض الرد وينهي المحادثة.
مسودة الإرشادات مفتوحة للتعليقات العامة حتى 25 أكتوبر. في حين أن الصين كانت واحدة من أوائل الدول التي قدمت قوانين تحكم الذكاء الاصطناعي التوليدي اعتبارًا من أغسطس، يتابع العالم عن كثب لمعرفة كيف تمهد هذه الخطوة الطريق لمستقبل الذكاء الاصطناعي، سواء من حيث التكنولوجيا أو حرية التعبير.