بواسطة وكاي زينر، رئيس مكتب البرلمان الأوروبي أكسل فوس؛ كورنيليا كوترر، المدير العام لشركة Conseati
الآراء الواردة في هذه المقالة هي آراء المؤلف ولا تمثل بأي حال من الأحوال الموقف التحريري ليورونيوز.
وسوف تلعب الخبرة ورؤية (نائبي) الرئيس دورًا حاسمًا في توجيه قواعد GPAI للمستقبل وضمان استمرار الطريقة الأوروبية للثقة في نظام الذكاء الاصطناعي، كما كتب كاي زينر وكورنيليا كوترير.
خلال الأسابيع الثلاثة المقبلة، من المرجح أن يقوم مكتب الذكاء الاصطناعي بتعيين مجموعة مهمة من الأفراد الخارجيين الذين سيعملون على صياغة تنفيذ جزء رئيسي من قانون الذكاء الاصطناعي في الاتحاد الأوروبي: رؤساء ونواب رؤساء مدونة الممارسات لنماذج الذكاء الاصطناعي للأغراض العامة (GPAI).
ولتقديم بعض الخلفية: لم يكن صعود الذكاء الاصطناعي التوليدي ــ بما في ذلك التطبيقات الشعبية مثل ChatGPT من OpenAI ــ مدمرا من الناحية الاقتصادية فحسب، بل إنه خلق أيضا حالة من التوتر السياسي في نهاية مفاوضات ثلاثية قانون الذكاء الاصطناعي.
كانت الدول الأعضاء مثل فرنسا وألمانيا وإيطاليا تشعر بالقلق من أن التدخل التنظيمي في أساس مجموعة الذكاء الاصطناعي كان سابقًا لأوانه ومن شأنه أن يحد من الشركات الناشئة في الاتحاد الأوروبي مثل ميسترال أو أليف ألفا، على الرغم من أن فرنسا تمكنت من التقلب عدة مرات قبل أن تستقر على هذا الموقف.
كان العكس صحيحًا بالنسبة للبرلمان الأوروبي. فنظرًا لقلقه من تركيز السوق وانتهاكات الحقوق الأساسية المحتملة، اقترح البرلمان إطارًا قانونيًا شاملاً للذكاء الاصطناعي التوليدي، أو كما أطلق عليه القانون النهائي، نماذج الذكاء الاصطناعي التوليدي العام.
وبناء على هذه الآراء المتناقضة، اختار المشرعون المشاركون في الاتحاد الأوروبي طريقا ثالثا، وهو نهج تنظيمي مشترك يحدد التزامات مقدمي نماذج GPAI في القواعد والمعايير الفنية.
وكان المفوض تييري بريتون هو الذي اقترح على وجه الخصوص استخدام هذه الأداة، مستعيرًا صفحة من مدونة الممارسات لعام 2022 بشأن التضليل الإعلامي.
هناك أوجه تشابه أساسية تكمن وراء نهج الحوكمة، مما يجعل القواعد المرنة مناسبة بشكل خاص لسلامة الذكاء الاصطناعي: التكنولوجيا سريعة التطور، والقيم الاجتماعية والتقنية، وتعقيدات سياسات المحتوى وقرارات التعديل.
ولكن ليس كل الناس يتفقون على أن هذه القواعد تشكل الأداة التنظيمية المناسبة. ويشير منتقدوها إلى خطر التزام الشركات بالحد الأدنى فقط، ثم القيام بأقل قدر ممكن في وقت متأخر للغاية.
وكان هذا على الأقل هو الانطباع الذي تشكل لدى العديد من المدققين بشأن النسخة الأولية من قانون ممارسات الاتحاد الأوروبي بشأن التضليل في عام 2018.
بعد مراجعة صارمة، تمكن فريق مكافحة المعلومات المضللة التابع للمفوضية من حث الشركات على القيام بعمل أفضل، وإشراك المجتمع المدني، وإجبار المشاركين على تعيين أكاديمي مستقل لرئاسة العملية.
قابلة للتنفيذ من الناحية الفنية ومناسبة للابتكار
والخبر السار هو – بالعودة إلى التعيينات المقبلة لرؤساء (نواب) في منتصف سبتمبر – أن مكتب الذكاء الاصطناعي استخدم أيضًا تلك التجربة المحددة كنموذج لنهجه التنظيمي المشترك تجاه GPAI.
وفي 30 يونيو/حزيران، اقترحت اللجنة الاستشارية نظام حوكمة سليم لصياغة قواعد الممارسة الخاصة بالمبادرة العالمية لمكافحة الفساد من خلال أربع مجموعات عمل.
وبذلك تتاح لجميع الأطراف المعنية فرص متعددة للمساهمة في صياغة النص النهائي، وخاصة من خلال التشاور العام وثلاث جلسات عامة. وستظل شركات GPAI تهيمن على عملية الصياغة حيث تتم دعوتها إلى ورش عمل إضافية.
كما أنهم غير ملزمين بالالتزام بالنتائج النهائية حيث أن القواعد طوعية.
وبالنظر إلى قانون مكافحة التضليل الإعلامي، فمن العادل أن نقول إن معايير استقلال (نواب) الرؤساء سوف تصبح حاسمة لحماية مصداقية عملية صياغة القانون والتوازن السليم فيها.
وسيكون للأفراد المعينين تأثير كبير، لأنهم هم أصحاب القلم الفعليون المسؤولون عن صياغة النصوص ورئاسة مجموعات العمل الأربع.
وقد يتولى رئيس تاسع إضافي دور التنسيق. ومن الممكن أن يسعى كل منهما إلى إيجاد التوازن الصحيح بين القواعد الطموحة في ضوء المخاطر النظامية مع الحفاظ على الالتزامات الممكنة من الناحية الفنية والملائمة للابتكار.
يجب أن يكون هدفهم هو تحقيق مدونة GPAI تعكس تفسيرًا عمليًا لأحدث التقنيات. لتحقيق أعلى مستوى من الجودة، يجب على مكتب الذكاء الاصطناعي اختيار (نواب) الرؤساء حسب الجدارة: الخبرة التقنية أو الاجتماعية أو التقنية أو الحوكمة القوية في نماذج GPAI جنبًا إلى جنب مع الخبرة العملية في كيفية إدارة عمل اللجنة على المسرح الأوروبي أو الدولي.
اختيار ذو أهمية قصوى
ستكون عملية الاختيار صعبة. إن سلامة الذكاء الاصطناعي مجال بحثي ناشئ ومتطور يتميز بالتجربة والخطأ.
يتعين على مكتب الذكاء الاصطناعي أن يتعامل مع مجموعة متنوعة من الخلفيات المهنية، وأن يوازن بين عدد كبير من المصالح المحددة، وأن يلتزم بالاعتبارات النموذجية للاتحاد الأوروبي فيما يتعلق بتنوع البلدان والجنسين، كل ذلك مع الاعتراف بأن العديد من خبراء سلامة الذكاء الاصطناعي الرائدين موجودون خارج الاتحاد الأوروبي.
بطبيعة الحال، ينبغي لمدونة الذكاء الاصطناعي أن تركز على قيم الاتحاد الأوروبي، ومن المهم ضمان تمثيل قوي للاتحاد الأوروبي بين الرؤساء (نواب الرؤساء). ومع ذلك، ونظرا لأهميتها العالمية وحقيقة أن قانون الذكاء الاصطناعي يتطلب مراعاة النهج الدولي، فقد أعرب العديد من الخبراء الدوليين المرموقين عن اهتمامهم بهذه الأدوار.
كما سيكون من المربح للاتحاد الأوروبي أن يعين عدداً كبيراً من الخبراء المعروفين دولياً في مناصب رؤساء أو نواب رؤساء اللجان. ومن شأن هذه الخطوة أن تزيد من احتمالات التوصل إلى نتيجة ناجحة، وتضمن شرعية المدونة في جميع أنحائها، وتجعلها أكثر ملاءمة للشركات غير الأعضاء في الاتحاد الأوروبي للتوافق مع العملية.
وفي الختام، فإن اختيار (نواب) رؤساء لجنة GPAI له أهمية قصوى في هذه المرحلة.
وسوف تحدد قيادتهم النغمة لكيفية تطور ممارسة التنظيم المشترك بمرور الوقت، خاصة وأنها تتعامل مع التحديات الاجتماعية والتقنية المعقدة والسياسات الحساسة مثل حقوق الملكية الفكرية، والمواد الإباحية والمواد الإباحية على الأطفال، والعتبات الحرجة التي تحدد الالتزامات التي يتعين على نماذج GPAI المعنية مواجهتها.
ستكون خبرة ورؤية (نواب) الرؤساء حاسمة في توجيه قواعد GPAI للمستقبل وضمان استمرار الطريقة الأوروبية للثقة في نظام الذكاء الاصطناعي.
كاي زينر هو رئيس المكتب ومستشار السياسة الرقمية لعضو البرلمان الأوروبي أكسل فوس (ألمانيا، حزب الشعب الأوروبي) وكان مشاركًا في مفاوضات قانون الذكاء الاصطناعي على المستوى الفني. كورنيليا كوترير هي المديرة الإدارية لشركة Considerati، ومستشارة SaferAI، وباحثة في المعهد متعدد التخصصات للذكاء الاصطناعي في جامعة جورجيا.
في يورونيوز، نؤمن بأن كل الآراء مهمة. اتصل بنا على [email protected] لإرسال مقترحاتك أو مشاركاتك والمشاركة في المحادثة.