ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
وافقت شركات الذكاء الاصطناعي الرائدة على السماح للحكومات بما في ذلك المملكة المتحدة والولايات المتحدة وسنغافورة باختبار أحدث نماذجها للأمن القومي والمخاطر الأخرى قبل إطلاقها للشركات والمستهلكين.
وقعت الشركات بما في ذلك OpenAI وGoogle DeepMind وAnthropic وAmazon وMistral وMicrosoft وMeta يوم الخميس على وثيقة “معلمة” ولكنها ليست ملزمة قانونًا، في ختام قمة سلامة الذكاء الاصطناعي التي استمرت يومين في المملكة المتحدة.
ووقعت على الوثيقة حكومات من بينها أستراليا وكندا والاتحاد الأوروبي وفرنسا وألمانيا وإيطاليا واليابان وكوريا الجنوبية. ولم تكن الصين من الدول الموقعة.
وستقوم لجنة دولية من الخبراء أيضًا بإعداد تقرير سنوي حول المخاطر المتطورة للذكاء الاصطناعي، بما في ذلك التحيز والمعلومات المضللة والمخاطر “الوجودية” الأكثر تطرفًا مثل المساعدة في تطوير الأسلحة الكيميائية.
وقال ريشي سوناك، رئيس وزراء المملكة المتحدة ومضيف الحدث الافتتاحي: “أعتقد أن إنجازات هذه القمة سترجح كفة الميزان لصالح الإنسانية”. “سنعمل معًا على اختبار سلامة نماذج الذكاء الاصطناعي الجديدة قبل إصدارها.”
وقال سوناك من بلتشلي بارك، المبنى الذي كان موطناً لفك الشفرات في الحرب العالمية الثانية: “نحن متقدمون على أي دولة أخرى في تطوير الأدوات والقدرات للحفاظ على سلامة الناس”.
وحضرت القمة نائبة الرئيس الأمريكي كامالا هاريس ورئيسة المفوضية الأوروبية أورسولا فون دير لاين، التي جمعت أيضًا دولًا حليفة أخرى لمناقشة القضايا الحساسة المتعلقة بالأمن القومي.
وعندما سُئل سوناك عما إذا كانت المملكة المتحدة بحاجة إلى المضي قدمًا من خلال وضع لوائح ملزمة، قال إن صياغة التشريع وسنه “يستغرق وقتًا”.
وقال نيك كليج، رئيس الشؤون العالمية في شركة Meta: “من الضروري أن ننشئ طرقًا لتقييم ومعالجة التحديات الحالية التي يمثلها الذكاء الاصطناعي، فضلاً عن المخاطر المحتملة من التكنولوجيا التي لم تظهر بعد”.
أصدرت الحكومة الأمريكية أمرا تنفيذيا يوم الاثنين في أوسع خطوة تتخذها الإدارة في التصدي لتهديدات الذكاء الاصطناعي. وقالت الولايات المتحدة أيضًا هذا الأسبوع إنها تخطط لإنشاء معهد خاص بها لشرطة الذكاء الاصطناعي. وافقت المملكة المتحدة على شراكات مع معهد سلامة الذكاء الاصطناعي الأمريكي، ومع سنغافورة للتعاون في اختبار سلامة الذكاء الاصطناعي.
سيتم صياغة تقرير مخاطر الذكاء الاصطناعي، الذي وافقت عليه 20 دولة، على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ، وسيترأس أولها يوشوا بينجيو، أستاذ علوم الكمبيوتر في جامعة مونتريال.
أجرت فرقة عمل خاصة بالذكاء الاصطناعي تابعة لحكومة المملكة المتحدة سلسلة من اختبارات السلامة على نماذج الذكاء الاصطناعي الرائدة لتقييم أي عيوب محتملة أو مخاطر سوء الاستخدام، وفقًا للعديد من الأشخاص في إحدى جلسات القمة. وشمل ذلك كيف يمكن للنماذج أن تقدم قدرة أعلى على نشر المعلومات المضللة، أو تنسيق الهجمات السيبرانية، أو التخطيط لهجمات بالأسلحة البيولوجية والكيميائية.
جاك كلارك، المؤسس المشارك لشركة أنثروبيك الناشئة في مجال الذكاء الاصطناعي، قال لصحيفة فايننشال تايمز إنه لا بد من وجود “حكم” خارجي مستقل لاختبار سلامة النماذج في عملية التطوير.
وقال: “سنستمر في إجراء اختباراتنا الخاصة، لكنني أريد حقًا أن تكون هناك هيئة اختبار شرعية تابعة لطرف ثالث يمكننا إرسال الاختبارات إليها وسماع النتائج منها”.
قم بالتسجيل في قمة FT مستقبل الذكاء الاصطناعي في 15-16 نوفمبر