اختارت الصين هذا الأسبوع عدم التوقيع على “مخطط” دولي وافقت عليه نحو 60 دولة، بما في ذلك الولايات المتحدة، والذي يهدف إلى وضع حواجز وقائية عند استخدام الذكاء الاصطناعي للاستخدام العسكري.
حضر أكثر من 90 دولة قمة الذكاء الاصطناعي المسؤول في المجال العسكري (REAIM) التي استضافتها كوريا الجنوبية يومي الاثنين والثلاثاء، على الرغم من أن حوالي ثلث الحاضرين لم يدعموا الاقتراح غير الملزم.
وقال خبير الذكاء الاصطناعي آرثر هيرمان، الزميل البارز ومدير مبادرة التحالف الكمومي في معهد هدسون، لشبكة فوكس نيوز الرقمية إن حقيقة أن حوالي 30 دولة اختارت عدم المشاركة في هذا التطور المهم في السباق لتطوير الذكاء الاصطناعي لا تشكل بالضرورة سببا للقلق، على الرغم من أنه في حالة بكين من المرجح أن يكون ذلك بسبب معارضتها العامة لتوقيع الاتفاقيات المتعددة الأطراف.
الصين تتقن “فن غسيل المخ” وتكثف الرقابة على الذكاء الاصطناعي
وقال “إن الأمر يتلخص في أن الصين دائمًا ما تكون حذرة من أي نوع من الاتفاقيات الدولية التي لم تكن هي المهندسة أو المشاركة في إنشاء وتنظيم كيفية صياغة وتنفيذ هذه الاتفاقيات. وأعتقد أن الصينيين يرون كل هذه الجهود، وكل هذه المساعي المتعددة الأطراف، كوسائل لمحاولة تقييد وتقييد قدرة الصين على استخدام الذكاء الاصطناعي لتعزيز تفوقها العسكري”.
وأوضح هيرمان أن القمة، والمخطط الذي وافقت عليه نحو خمسين دولة، هي محاولة لحماية التكنولوجيا المتوسعة المحيطة بالذكاء الاصطناعي من خلال ضمان وجود “سيطرة بشرية” دائمًا على الأنظمة الموجودة، وخاصة فيما يتعلق بالمسائل العسكرية والدفاعية.
وقال “إن الخوارزميات التي تحرك أنظمة الدفاع وأنظمة الأسلحة تعتمد إلى حد كبير على مدى سرعتها. فهي تتحرك بسرعة لجمع المعلومات والبيانات التي يمكنك بعد ذلك تسريعها للعودة إلى القيادة والتحكم حتى تتمكن من اتخاذ القرار”.
وأضاف أن “السرعة التي تتحرك بها الذكاء الاصطناعي … مهمة للغاية في ساحة المعركة”. “إذا كان القرار الذي يتخذه النظام الذي يقوده الذكاء الاصطناعي يتضمن قتل إنسان، فأنت تريد أن يكون الإنسان هو الذي يتخذ القرار النهائي بشأن قرار من هذا النوع”.
وقالت الدول الرائدة في تطوير الذكاء الاصطناعي، مثل الولايات المتحدة، إن الحفاظ على العنصر البشري في اتخاذ القرارات الجادة في ساحة المعركة أمر مهم للغاية لتجنب الخسائر البشرية الخاطئة ومنع الصراع الذي تقوده الآلات.
الجيش يدفع باستراتيجيتين جديدتين لحماية القوات بموجب خطة تنفيذ الذكاء الاصطناعي التي تستمر 500 يوم
وكانت القمة، التي استضافتها هولندا وسنغافورة وكينيا والمملكة المتحدة، الثانية من نوعها بعد أن حضر أكثر من 60 دولة الاجتماع الأول الذي عقد العام الماضي في العاصمة الهولندية.
ولكن لا يزال من غير الواضح لماذا اختارت الصين، إلى جانب نحو 30 دولة أخرى، عدم الموافقة على اللبنات الأساسية التي تهدف إلى إنشاء ضمانات للذكاء الاصطناعي، خاصة بعد أن دعمت بكين “دعوة إلى العمل” مماثلة خلال القمة العام الماضي.
وقال المتحدث باسم وزارة الخارجية الصينية ماو نينغ، عندما سُئل عن تفاصيل القمة خلال مؤتمر صحفي يوم الأربعاء، إنه بناء على دعوة، أرسلت الصين وفداً إلى القمة حيث “شرحت مبادئ الصين بشأن حوكمة الذكاء الاصطناعي”.
وأشارت ماو إلى “المبادرة العالمية لحوكمة الذكاء الاصطناعي” التي طرحها الرئيس الصيني شي جين بينج في أكتوبر/تشرين الأول، والتي قالت إنها “تقدم رؤية منهجية لمقترحات الحوكمة في الصين”.
ولم يذكر المتحدث سبب عدم دعم الصين للمخطط غير الملزم الذي تم تقديمه خلال قمة REAIM هذا الأسبوع، لكنه أضاف أن “الصين ستظل منفتحة وبناءة في العمل مع الأطراف الأخرى وتقديم المزيد من الخدمات الملموسة للإنسانية من خلال تطوير الذكاء الاصطناعي”.
وحذر هيرمان من أنه في حين أن دولاً مثل الولايات المتحدة وحلفائها سوف تتطلع إلى إنشاء اتفاقيات متعددة الأطراف لحماية ممارسات الذكاء الاصطناعي في الاستخدام العسكري، فمن غير المرجح أن تفعل الكثير في طريق ردع الدول المعادية مثل الصين وروسيا وإيران عن تطوير تقنيات خبيثة.
وأوضح خبير الذكاء الاصطناعي: “عندما تتحدث عن انتشار الأسلحة النووية أو تكنولوجيا الصواريخ، فإن أفضل وسيلة لضبط النفس هي الردع. إنك تجبر أولئك الذين عزموا على المضي قدماً في استخدام الذكاء الاصطناعي ــ حتى إلى حد استخدام الذكاء الاصطناعي كآلية قتل آلية، لأنهم يرون أن من مصلحتهم القيام بذلك ــ على أن تكون الطريقة التي تقيدهم بها هي من خلال توضيح أنه إذا طورت أسلحة مثل هذه، فيمكننا استخدامها ضدك بنفس الطريقة”.
وأضاف هيرمان “لا يمكنك الاعتماد على شعورهم بالإيثار أو المعايير الأخلاقية العالية لكبح جماحهم، فهذه ليست الطريقة التي تعمل بها الأمور”.
ساهمت وكالة رويترز في هذا التقرير.