يجب على الأمم المتحدة إنشاء هيئة دولية جديدة للمساعدة في إدارة استخدام الذكاء الاصطناعي حيث تكشف التكنولوجيا بشكل متزايد عن مخاطرها وفوائدها المحتملة ، وفقًا للأمين العام للأمم المتحدة أنطونيو غوتيريس.
قال غوتيريش يوم الثلاثاء في أول اجتماع لمجلس الأمن مكرس لحوكمة الذكاء الاصطناعي إن الأمم المتحدة لديها فرصة لوضع قواعد الطريق المتفق عليها عالميًا لرصد وتنظيم الذكاء الاصطناعي.
قال غوتيريش إنه مثلما دعت الأمم المتحدة هيئات مماثلة لإدارة استخدام الطاقة النووية ، وتعزيز سلامة الطيران ومواجهة تحديات تغير المناخ ، فإن للأمم المتحدة دور فريد تلعبه في تنسيق الاستجابة الدولية للذكاء الاصطناعي.
وأضاف أن الأمم المتحدة تقوم بالفعل بنشر الذكاء الاصطناعي في عملياتها لمراقبة وقف إطلاق النار وتحديد أنماط العنف ، كما يتم استهداف عمليات حفظ السلام والعمليات الإنسانية التابعة للأمم المتحدة من قبل جهات معادية تستخدم الذكاء الاصطناعي لأغراض خبيثة ، “مما يتسبب في معاناة إنسانية كبيرة. ”
وحذر غوتيريش من أن “الاستخدام الخبيث لأنظمة الذكاء الاصطناعي لأغراض إرهابية أو إجرامية أو حكومية يمكن أن يتسبب في مستويات مروعة من الوفيات والدمار ، وصدمات واسعة النطاق وأضرار نفسية عميقة على نطاق لا يمكن تصوره”. “يتمتع الذكاء الاصطناعي التوليدي بإمكانيات هائلة للخير والشر على نطاق واسع. لقد حذر منشئوه أنفسهم من أن هناك مخاطر أكبر بكثير ، وربما كارثية ووجودية. بدون اتخاذ إجراءات للتصدي لهذه المخاطر ، فإننا مقصرون في مسؤولياتنا تجاه الأجيال الحالية والمستقبلية “.
قال غوتيريش إنه بحلول عام 2026 ، يجب على الأمم المتحدة تطوير اتفاقية ملزمة قانونًا تحظر استخدام الذكاء الاصطناعي في أسلحة الحرب الآلية بالكامل. كما تعهد بتكوين مجلس استشاري سيضع مقترحات لتنظيم الذكاء الاصطناعي على نطاق أوسع بحلول نهاية العام ، وأثار موجزًا للسياسة قادمًا يتضمن توصيات للحكومات حول كيفية التعامل مع التكنولوجيا بمسؤولية.
ترأس اجتماع يوم الثلاثاء وزير الخارجية البريطاني جيمس كليفرلي ، الذي دعا إلى ربط الحوكمة الدولية للذكاء الاصطناعي بالمبادئ التي تدعم الحرية والديمقراطية. احترام حقوق الإنسان وسيادة القانون ؛ الأمن ، بما في ذلك الأمن المادي وكذلك حماية حقوق الملكية والخصوصية ؛ والجدارة بالثقة.
قال كليفرلي: “نحن هنا اليوم لأن الذكاء الاصطناعي سيؤثر على عمل هذا المجلس”. يمكن أن يعزز أو يعطل الاستقرار الاستراتيجي العالمي. إنه يتحدى افتراضاتنا الأساسية حول الدفاع والردع. يطرح أسئلة أخلاقية حول المساءلة عن القرارات الفتاكة في ساحة المعركة …. يمكن للذكاء الاصطناعي أن يساعد في البحث المتهور عن أسلحة الدمار الشامل من قبل الجهات الفاعلة الحكومية وغير الحكومية على حد سواء. ولكن يمكن أن يساعدنا أيضًا في وقف الانتشار “.
وفي الوقت نفسه ، جادلت الحكومة الصينية بأن قواعد الأمم المتحدة يجب أن تعكس وجهات نظر البلدان النامية لأنها تسعى إلى منع التكنولوجيا من أن تصبح “حصانًا جامحًا”.
قال السفير الصيني تشانغ جون ، الذي انتقد أيضًا “الدول المتقدمة” التي لم يذكر اسمها لمحاولة تحقيق الهيمنة في الذكاء الاصطناعي ، يجب أن تكون القوانين والمعايير الدولية المتعلقة بالذكاء الاصطناعي مرنة لمنح الدول الحرية في وضع لوائحها الخاصة على المستوى الوطني.
وقال تشانغ “بعض الدول المتقدمة ، من أجل السعي إلى الهيمنة التكنولوجية ، تبذل جهودًا لبناء أندية صغيرة حصرية وعرقلة بشكل خبيث التطور التكنولوجي للبلدان الأخرى وخلق حواجز تكنولوجية بشكل مصطنع”. “الصين تعارض بشدة هذه السلوكيات.”
تأتي تصريحات تشانغ في أعقاب تقارير تفيد بأن الحكومة الأمريكية قد تسعى للحد من تدفق رقائق الذكاء الاصطناعي القوية إلى الصين.
لم يتطرق مسؤول يمثل الولايات المتحدة في الاجتماع بشكل مباشر إلى اتهامات الحكومة الصينية ، لكنه أضاف أنه “لا ينبغي لأي دولة عضو استخدام الذكاء الاصطناعي لفرض رقابة على الأشخاص أو تقييدهم أو قمعهم أو تجريدهم من قوتهم” – وهي إشارة محجوبة محتملة لاستخدام الصين للتكنولوجيا لمراقبة الجماعات العرقية. الأقليات.
تضمن الاجتماع أيضًا بعض الأصوات من صناعة التكنولوجيا.
في كلمة أمام مجلس الأمن عبر الهاتف ، حث جاك كلارك ، المؤسس المشارك لشركة الذكاء الاصطناعي Anthropic ، الدول الأعضاء على عدم السماح للشركات الخاصة بالسيطرة على تطوير الذكاء الاصطناعي.
قال كلارك: “لا يمكننا ترك تطوير الذكاء الاصطناعي للجهات الفاعلة في القطاع الخاص فقط”. “يجب أن تتعاون حكومات العالم لتطوير قدرات آمنة وجعل المزيد من التطوير لأنظمة الذكاء الاصطناعي القوية مسعى مشتركًا عبر جميع أجزاء المجتمع ، بدلاً من السعي الذي يمليه فقط عدد صغير من الشركات التي تتنافس مع بعضها البعض في السوق.”