يقول جيفري دينج، الأستاذ المساعد للعلوم السياسية في جامعة جورج واشنطن، إنه من المحتمل أن الهيئات التنظيمية الصينية تعلمت من قانون الاتحاد الأوروبي للذكاء الاصطناعي. “قال صناع السياسات والباحثون الصينيون إنهم اعتمدوا على قوانين الاتحاد الأوروبي كمصدر إلهام لأشياء في الماضي”.
ولكن في الوقت نفسه، فإن بعض التدابير التي اتخذتها الهيئات التنظيمية الصينية لا يمكن تكرارها في بلدان أخرى. على سبيل المثال، تطلب الحكومة الصينية من منصات التواصل الاجتماعي فحص المحتوى الذي يحمّله المستخدم بحثًا عن الذكاء الاصطناعي. يقول دينغ: “يبدو هذا شيئًا جديدًا جدًا وقد يكون فريدًا بالنسبة للسياق الصيني”. “هذا لن يكون موجودًا أبدًا في سياق الولايات المتحدة، لأن الولايات المتحدة مشهورة بقولها إن المنصة ليست مسؤولة عن المحتوى”.
ولكن ماذا عن حرية التعبير على الإنترنت؟
تسعى مسودة اللائحة المتعلقة بتصنيف محتوى الذكاء الاصطناعي إلى الحصول على تعليقات عامة حتى 14 أكتوبر، وقد يستغرق تعديلها وإقرارها عدة أشهر أخرى. ولكن ليس هناك سبب وجيه يدفع الشركات الصينية إلى تأخير الاستعداد لحين دخوله حيز التنفيذ.
يقول سيما هوابينغ، المؤسس والرئيس التنفيذي لشركة Silicon Intelligence الصينية التابعة لشركة AIGC، والتي تستخدم تقنيات التزييف العميق لإنشاء عملاء الذكاء الاصطناعي والمؤثرين واستنساخ الأحياء والأموات، إن منتجه يتيح الآن للمستخدمين الاختيار طوعًا ما إذا كانوا يريدون وضع علامة على المنتج الذي تم إنشاؤه على أنه ذكاء اصطناعي. ولكن إذا تم إقرار القانون، فقد يضطر إلى تغييره إلى إلزامي.
“إذا كانت الميزة اختيارية، فمن المرجح أن الشركات لن تضيفها إلى منتجاتها. تقول سيما: “لكن إذا أصبح إلزاميا بموجب القانون، فيجب على الجميع تنفيذه”. ليس من الصعب تقنيًا إضافة علامات مائية أو علامات بيانات تعريفية، ولكنها ستزيد من تكاليف التشغيل للشركات المتوافقة.
ويقول إن سياسات مثل هذه يمكن أن توجه الذكاء الاصطناعي بعيدًا عن استخدامه في الاحتيال أو انتهاك الخصوصية، ولكنها قد تؤدي أيضًا إلى نمو السوق السوداء لخدمات الذكاء الاصطناعي حيث تحاول الشركات تفادي الامتثال القانوني وتوفير التكاليف.
هناك أيضًا خط رفيع بين مساءلة منتجي محتوى الذكاء الاصطناعي ومراقبة الكلام الفردي من خلال تتبع أكثر تطورًا.
يقول غريغوري: “إن التحدي الكبير الكامن في مجال حقوق الإنسان هو التأكد من أن هذه الأساليب لا تؤدي إلى المزيد من المساس بالخصوصية أو حرية التعبير”. في حين يمكن استخدام العلامات والعلامات المائية الضمنية لتحديد مصادر المعلومات الخاطئة والمحتوى غير المناسب، فإن نفس الأدوات يمكن أن تمكن المنصات والحكومة من السيطرة بشكل أقوى على ما ينشره المستخدمون على الإنترنت. في الواقع، كانت المخاوف بشأن الكيفية التي يمكن بها لأدوات الذكاء الاصطناعي أن تصبح مارقة، أحد المحركات الرئيسية للجهود التشريعية الاستباقية في مجال الذكاء الاصطناعي في الصين.
وفي الوقت نفسه، تضغط صناعة الذكاء الاصطناعي الصينية على الحكومة للحصول على مساحة أكبر للتجربة والنمو لأنها متأخرة بالفعل عن نظيراتها الغربية. تم تخفيف قانون صيني سابق للذكاء الاصطناعي بشكل كبير بين المسودة العامة الأولى ومشروع القانون النهائي، مما أدى إلى إزالة متطلبات التحقق من الهوية وتقليل العقوبات المفروضة على الشركات.
يقول دينغ: “ما رأيناه هو أن الحكومة الصينية تحاول حقًا السير على هذا الحبل الدقيق بين “التأكد من أننا نحافظ على التحكم في المحتوى”، ولكن أيضًا “السماح لمختبرات الذكاء الاصطناعي الموجودة في مكان استراتيجي بالحصول على حرية الابتكار”. “هذه محاولة أخرى للقيام بذلك.”