سام التمان قال الرئيس التنفيذي لشركة OpenAI مؤخرًا إن الصين يجب أن تلعب دورًا رئيسيًا في تشكيل الحواجز الموضوعة حول التكنولوجيا.
قال ألتمان خلال حديث في أكاديمية بكين للذكاء الاصطناعي (BAAI) الأسبوع الماضي: “تمتلك الصين بعضًا من أفضل المواهب في مجال الذكاء الاصطناعي في العالم”. “يتطلب حل المواءمة لأنظمة الذكاء الاصطناعي المتقدمة بعضًا من أفضل العقول من جميع أنحاء العالم – ولذا آمل حقًا أن يقدم باحثو الذكاء الاصطناعي الصينيون مساهمات كبيرة هنا.”
ألتمان في وضع جيد للتعبير عن آرائه حول هذه القضايا. شركته وراء ChatGPT ، روبوت المحادثة الذي أظهر للعالم مدى سرعة تقدم قدرات الذكاء الاصطناعي. دفعت هذه التطورات العلماء والتكنولوجيين إلى المطالبة بفرض قيود على التكنولوجيا. في مارس ، وقع العديد من الخبراء خطابًا مفتوحًا يدعو إلى التوقف لمدة ستة أشهر لتطوير خوارزميات الذكاء الاصطناعي الأكثر قوة من تلك التي كانت وراء ChatGPT. في الشهر الماضي ، وقع المديرون التنفيذيون بما في ذلك ألتمان وديميس هاسابيس ، الرئيس التنفيذي لشركة Google DeepMind ، بيانًا يحذر من أن الذكاء الاصطناعي قد يشكل يومًا ما خطرًا وجوديًا يمكن مقارنته بالحرب النووية أو الأوبئة.
مثل هذه التصريحات ، التي غالبًا ما يوقعها المسؤولون التنفيذيون الذين يعملون على التكنولوجيا التي يحذرون من أنها قد تقتلنا ، يمكن أن تشعر بأنها فارغة. بالنسبة للبعض ، فإنهم أيضًا يفتقدون النقطة. يقول العديد من خبراء الذكاء الاصطناعي إنه من الأهمية بمكان التركيز على الأضرار التي يمكن أن يسببها الذكاء الاصطناعي بالفعل من خلال تضخيم التحيزات المجتمعية وتسهيل انتشار المعلومات المضللة.
أخبرني رئيس BAAI Zhang Hongjiang أن باحثي الذكاء الاصطناعي في الصين قلقون للغاية بشأن القدرات الجديدة الناشئة في الذكاء الاصطناعي. وقال: “أعتقد حقًا أن (ألتمان) يقدم خدمة للبشرية من خلال القيام بهذه الجولة ، من خلال التحدث إلى مختلف الحكومات والمؤسسات”.
قال تشانغ إن عددًا من العلماء الصينيين ، بمن فيهم مدير BAAI ، وقعوا الرسالة التي تدعو إلى التوقف في تطوير أنظمة ذكاء اصطناعي أكثر قوة ، لكنه أشار إلى أن BAAI ركزت منذ فترة طويلة على المزيد من مخاطر الذكاء الاصطناعي الفورية. قال تشانغ إن التطورات الجديدة في الذكاء الاصطناعي تعني أننا “سنبذل بالتأكيد المزيد من الجهود في العمل على محاذاة الذكاء الاصطناعي”. لكنه أضاف أن المشكلة صعبة لأن “النماذج الأكثر ذكاءً يمكن أن تجعل الأمور أكثر أمانًا”.
لم يكن ألتمان الخبير الغربي الوحيد في مجال الذكاء الاصطناعي الذي حضر مؤتمر BAAI.
وكان من بين الحاضرين أيضًا جيفري هينتون ، أحد رواد التعلم العميق ، وهي تقنية تدعم كل الذكاء الاصطناعي الحديث ، والذي ترك Google الشهر الماضي لتحذير الناس من المخاطر التي قد تشكلها الخوارزميات المتقدمة قريبًا.
ماكس تيجمارك ، الأستاذ في معهد ماساتشوستس للتكنولوجيا (MIT) ومدير معهد مستقبل الحياة ، الذي نظم الرسالة التي تدعو إلى التوقف في تطوير الذكاء الاصطناعي ، تحدث أيضًا عن مخاطر الذكاء الاصطناعي ، في حين اقترح يان ليكون ، رائد التعلم العميق الآخر ، أن الإنذار الحالي حول مخاطر الذكاء الاصطناعي قد يكون مبالغًا فيه.
أينما كنت في مناظرة يوم القيامة ، هناك شيء لطيف بشأن مشاركة الولايات المتحدة والصين في وجهات النظر حول الذكاء الاصطناعي. يدور الخطاب المعتاد حول معركة الدول للسيطرة على تطوير التكنولوجيا ، وقد يبدو الأمر كما لو أن الذكاء الاصطناعي أصبح منغمسًا بشكل ميؤوس منه في السياسة. في يناير ، على سبيل المثال ، أخبر كريستوفر راي ، رئيس مكتب التحقيقات الفيدرالي ، المنتدى الاقتصادي العالمي في دافوس أنه “قلق للغاية” من برنامج الذكاء الاصطناعي للحكومة الصينية.
بالنظر إلى أن الذكاء الاصطناعي سيكون حاسمًا للنمو الاقتصادي والميزة الاستراتيجية ، فإن المنافسة الدولية ليست مفاجئة. لكن لا أحد يستفيد من تطوير التكنولوجيا بشكل غير آمن ، وستتطلب القوة الصاعدة للذكاء الاصطناعي مستوى معينًا من التعاون بين الولايات المتحدة والصين والقوى العالمية الأخرى.
ولكن كما هو الحال مع تطوير تقنيات أخرى “تغير العالم” ، مثل الطاقة النووية والأدوات اللازمة لمكافحة تغير المناخ ، فإن إيجاد أرضية مشتركة قد يقع على عاتق العلماء الذين يفهمون التكنولوجيا بشكل أفضل.