ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
من المقرر أن تنشر حكومة المملكة المتحدة سلسلة من الاختبارات التي يجب الوفاء بها لتمرير قوانين جديدة بشأن الذكاء الاصطناعي، حيث تواصل مقاومة إنشاء نظام تنظيمي أكثر صرامة للتكنولوجيا سريعة التطور.
يستعد الوزراء البريطانيون لنشر معايير في الأسابيع المقبلة بشأن الظروف التي سيفرضون فيها قيودًا على نماذج الذكاء الاصطناعي القوية التي أنشأتها شركات رائدة مثل OpenAI وGoogle، وفقًا للعديد من الأشخاص المطلعين على الخطوة الوشيكة.
من بين “الاختبارات الرئيسية” التي من شأنها أن تؤدي إلى التدخل هو ما إذا كانت الأنظمة التي وضعها معهد سلامة الذكاء الاصطناعي الجديد في المملكة المتحدة – وهي هيئة حكومية تتألف من أكاديميين وخبراء في التعلم الآلي – فشلت في تحديد المخاطر المحيطة بالتكنولوجيا. السيناريو الآخر الذي يمكن أن يؤدي إلى التشريع هو إذا فشلت شركات الذكاء الاصطناعي في الالتزام بالالتزامات الطوعية لتجنب الضرر.
ويتناقض النهج الحذر الذي تتبعه المملكة المتحدة لتنظيم القطاع مع التحركات في جميع أنحاء العالم. وافق الاتحاد الأوروبي على “قانون الذكاء الاصطناعي” واسع النطاق الذي يفرض التزامات جديدة صارمة على شركات الذكاء الاصطناعي الرائدة التي تصنع تقنيات “عالية المخاطر”.
أصدر الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا لإجبار شركات الذكاء الاصطناعي على الكشف عن تعاملها مع التهديدات التي تهدد الأمن القومي وخصوصية المستهلك. وفي الوقت نفسه، قدمت الصين إرشادات مفصلة حول تطوير الذكاء الاصطناعي مع التركيز على الحاجة إلى التحكم في المحتوى.
قالت المملكة المتحدة إنها ستمتنع عن سن تشريعات محددة للذكاء الاصطناعي على المدى القصير لصالح نظام خفيف، بسبب مخاوف من أن التنظيم الصارم من شأنه أن يعيق نمو الصناعة.
سيتم تضمين الاختبارات الجديدة للحكومة كجزء من استجابتها للتشاور بشأن ورقتها البيضاء، التي نشرت في مارس/آذار، والتي اقترحت تقسيم المسؤولية عن تنظيم الذكاء الاصطناعي بين الهيئات التنظيمية القائمة، مثل أوفكوم وهيئة السلوك المالي.
في نوفمبر، وقعت شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI، وGoogle DeepMind، وMicrosoft، وMeta، سلسلة من الالتزامات الطوعية بشأن سلامة منتجاتها كجزء من القمة العالمية الافتتاحية لسلامة الذكاء الاصطناعي التي استضافتها حكومة المملكة المتحدة.
وافقت الشركات على السماح لمعهد سلامة الذكاء الاصطناعي في المملكة المتحدة بتقييم سلامة النماذج القوية التي تدعم منتجات مثل ChatGPT قبل طرحها للشركات والمستهلكين. ومن المفهوم أن تقييم النماذج جارٍ، ولكن من غير الواضح كيف سيتم إجراؤها أو ما إذا كانت شركات الذكاء الاصطناعي ستوفر الوصول الشامل.
وقال أحد المسؤولين الحكوميين: “نحن محظوظون حالياً لأننا نعتمد على حسن النية من كلا الجانبين، ولدينا ذلك، ولكن من الممكن أن ينهار ذلك دائماً”. “إنه يعتمد بشكل كبير على الشخصية ويعتمد على الرئيس التنفيذي.”
ومع ذلك، فقد جادل بعض خبراء الذكاء الاصطناعي بأن اعتماد المملكة المتحدة على الالتزام الطوعي يفتقر إلى القوة.
وقال مايكل بيرتويستل، المدير المساعد في معهد أدا لوفليس، وهو هيئة بحثية مستقلة: “القلق هو أن الحكومة تعمل على إنشاء قدرات لتقييم ورصد مخاطر الذكاء الاصطناعي من خلال المعهد، لكنها تترك نفسها عاجزة عن فعل أي شيء حيال تلك المخاطر”.
وأضاف: “إن المخاطر الاقتصادية كبيرة للغاية في مجال الذكاء الاصطناعي، وبدون حوافز تنظيمية قوية، لا يمكنك أن تتوقع من الشركات أن تلتزم بالتزاماتها الطوعية بمجرد أن تتحرك حوافز السوق في اتجاه مختلف”.
سيتضمن رد الحكومة على ورقتها البيضاء الأولية حول الذكاء الاصطناعي نصًا مفاده أنه، لمتابعة التشريع، يجب أن يكون هناك دليل على أن مثل هذه الخطوة من شأنها أن تخفف من مخاطر الذكاء الاصطناعي دون خنق الابتكار، وفقًا لشخص مطلع على محتوياته.
وأضاف نفس الشخص أن السبب الآخر الذي يجعل الحكومة تمضي قدمًا في سن قوانين جديدة هو أنها واجهت مقاومة من شركات الذكاء الاصطناعي بشأن التحديثات المستقبلية لاتفاقياتها الطوعية، مثل طلب الوصول إلى التعليمات البرمجية أو اعتماد متطلبات اختبار جديدة.
وقالت حكومة المملكة المتحدة إنها “لن تتكهن بما قد يتم تضمينه أو لا يتم تضمينه” في ردها على مشاورة الكتاب الأبيض، لكنها أضافت أنها “تعمل بشكل وثيق مع الهيئات التنظيمية للتأكد من أن لدينا حواجز الحماية اللازمة – والعديد منها لقد بدأنا في اتخاذ إجراءات استباقية بما يتماشى مع إطار العمل المقترح لدينا”.