فتح Digest محرر مجانًا
تختار رولا خالاف ، محررة FT ، قصصها المفضلة في هذه النشرة الإخبارية الأسبوعية.
حث المهندسون المعماريون لقانون الذكاء الاصطناعي التاريخي في الاتحاد الأوروبي بروكسل على وقف التحركات “الخطرة” لتخفيض القواعد ، والتي من شأنها أن تدخر مجموعات التكنولوجيا الأمريكية الكبيرة مثل Openai و Google من العناصر الرئيسية للقانون.
تقوم المفوضية الأوروبية ، الذراع التنفيذي للكتلة ، بإجراء مناقشات يمكن أن تؤدي إلى مزيد من أجزاء القانون – التي تعتبر أكثر نظامًا في العالم ينظم تطور الذكاء الاصطناعي – يصبح طوعًا وليس إلزاميًا.
ويشمل ذلك الأحكام المصممة لإجبار شركات الذكاء الاصطناعي على ضمان عدم إنتاج النماذج المتطورة لا تنتج محتوى عنيفًا وخاطئًا أو يتم استخدامه في التداخل في الانتخابات. وتأتي هذه الخطوة بعد الضغط الشديد من دونالد ترامب وعمالقة التكنولوجيا الكبرى الذين يتحدون الجهود الأوروبية لتنظيم تطور الذكاء الاصطناعي.
إن الالتزام بمثل هذه المطالب هو “خطير وغير ديمقراطي ويخلق عدم اليقين القانوني” ، وفقًا لرسالة إلى رئيس الحناء الرقمي للجنة من العديد من الأعضاء البارزين في البرلمان الأوروبي المشاركين في تنظيم الذكاء الاصطناعي.
“إذا كان مقدمو الخدمات من النماذج الأكثر تأثيرًا للأغراض العامة على تبني مواقف سياسية أكثر تطرفًا ، فإن تنفيذ سياسات تقوض الموثوقية النموذجية ، أو تسهيل التدخل الأجنبي أو التلاعب بالانتخابات ، أو المساهمة في التمييز ، أو تقييد حرية المعلومات أو نشر المحتوى غير القانوني ، فإن العواقب قد تعطل الاقتصاد والديمقراطية في أوروبا”.
تشمل الموقعين على الرسالة معظم أعضاء البرلمان الأوروبي الذين تفاوضوا على قانون الذكاء الاصطناعى و Carme Artigas ، الوزير الإسباني السابق للرقمنة ومنظمة العفو الدولية التي قادت المفاوضات نيابة عن الدول الأعضاء في الاتحاد الأوروبي عندما تم الاتفاق على النسخة النهائية من قانون الذكاء الاصطناعي في ديسمبر 2023.
يصنف قانون الذكاء الاصطناعي للاتحاد الأوروبي التكنولوجيا إلى ثلاث فئات بناءً على المخاطر التي تطرحها على صحة الإنسان وأمنها ، على سبيل المثال إذا كان لديها تطبيقات طبية أو يتم استخدامها في وسائل النقل العام. كلما ارتفعت فئة المخاطر ، زادت متطلبات الإبلاغ. تواجه نماذج الذكاء الاصطناعى القوية أيضًا التزامات إضافية ، مثل الاضطرار إلى أن تكون أكثر شفافية حول كيفية تدريب النماذج.
يحيط النقاش الحالي بصياغة “مدونة الممارسة” التي ستوفر إرشادات لشركات الذكاء الاصطناعى حول كيفية تنفيذ الفعل الذي ينطبق على نماذج الذكاء الاصطناعى القوية مثل Google's Gemini و Meta's Llama و Openai's GPT-4.
يتم صياغة مدونة الممارسة من قبل مجموعة من الخبراء ، بما في ذلك الفائز بجائزة Turn-prize Yoshua Bengio. تم تعيين النسخة النهائية لتبنيها من قبل اللجنة في مايو. حاول الخبراء إيجاد توازن صعب بين ضمان القوة مع ضمان الاشتراك في شركات الذكاء الاصطناعى ، وفقًا للأشخاص الذين تم إطلاعهم على الصياغة.
واجهت بروكسل ضغوطًا مكثفة للولايات المتحدة على قانون الذكاء الاصطناعي. حذر رئيس الشؤون العالمية في Meta جويل كابلان جمهور بروكسل في فبراير من أن مدونة الممارسة ستفرض “متطلبات غير قابلة للتطبيق وغير قابلة للتقني”.
قالت Meta أيضًا إنها لا تستطيع شحن نماذج لغة كبيرة متعددة الوسائط وأحدث مساعد لمنظمة العفو الدولية في الاتحاد الأوروبي بسبب قواعد خصوصية الكتلة. شركات التكنولوجيا الأمريكية الأخرى مثل Google ، وكذلك المجموعات الأوروبية مثل Spotify و Ericsson كانت أيضًا حاسمة بشأن تنظيم الاتحاد الأوروبي على الذكاء الاصطناعي.
في هذه الأثناء ، استخدم نائب الرئيس الأمريكي JD Vance خطابًا في قمة AI التابعة لفرنسا في باريس الشهر الماضي للضرب ضد “التنظيم المفرط من الذكاء الاصطناعي” وحذر من أن “الذكاء الاصطناعي يجب أن يظل خاليًا من التحيز الأيديولوجي”.
أوضحت اللجنة الجديدة ، التي بدأت تفويضها الحالي في ديسمبر ، أنها تريد التركيز أكثر على جذب استثمارات الذكاء الاصطناعى وأعلنت أنها تسحب توجيه مسؤولية الذكاء الاصطناعي المخطط كجزء من دفعة أوسع لإلغاء القيود.
متحدثًا في حدث فاليس تايمز يوم الثلاثاء ، قال فيرككونن إنه من المهم أن يكون قواعد الممارسة “تساعد الصناعات وأصحاب المصلحة والشركات الصغيرة والمتوسطة حقًا ، ولا تقدم إرشادات حقًا ، وليس وضع المزيد من العقبات أو التزامات الإبلاغ”.
في الوقت نفسه ، أكدت أن اللجنة لا تزال ملتزمة بمبادئها الرئيسية. “نريد أن نتأكد من أن أوروبا لديها بيئة عادلة وآمنة وديمقراطية أيضًا عندما يتعلق الأمر بالعالم الرقمي.”