منذ ستة أشهر هذا الأسبوع، وقع العديد من الباحثين والمهندسين ورجال الأعمال البارزين في مجال الذكاء الاصطناعي على رسالة مفتوحة تدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة ذكاء اصطناعي أكثر قدرة من أحدث مولد لغة GPT-4 من OpenAI. لقد زعمت أن الذكاء الاصطناعي يتقدم بسرعة كبيرة وبشكل لا يمكن التنبؤ به، لدرجة أنه قد يؤدي إلى القضاء على عدد لا يحصى من الوظائف، وإغراقنا بالمعلومات المضللة، وتدمير البشرية – كما ذكرت موجة من العناوين الرئيسية المذعورة. عفوًا!
وكما لاحظتم، فإن الرسالة لم تؤدي إلى توقف مؤقت في تطوير الذكاء الاصطناعي، أو حتى تباطؤ إلى وتيرة أكثر قياسًا. وبدلاً من ذلك، قامت الشركات بتسريع جهودها لبناء ذكاء اصطناعي أكثر تقدماً.
ولم ينتظر إيلون ماسك، أحد أبرز الموقعين، طويلاً حتى يتجاهل دعوته للتباطؤ. وفي يوليو/تموز، أعلن عن شركة xAI، وهي شركة جديدة قال إنها ستسعى إلى تجاوز الذكاء الاصطناعي الحالي والتنافس مع OpenAI، وGoogle، وMicrosoft. وقد تمسك العديد من موظفي جوجل الذين وقعوا أيضًا على الرسالة المفتوحة بشركتهم بينما تستعد لإصدار نموذج ذكاء اصطناعي يسمى Gemini، والذي يتميز بقدرات أوسع من OpenAI’s GPT-4.
تواصلت WIRED مع أكثر من عشرة من الموقعين على الرسالة للسؤال عن التأثير الذي يعتقدون أنه أحدثه وما إذا كان قلقهم بشأن الذكاء الاصطناعي قد تعمق أو تلاشى في الأشهر الستة الماضية. يبدو أن جميع من أجابوا لم يتوقعوا أن تتوقف أبحاث الذكاء الاصطناعي فعليًا.
يقول ماكس تيجمارك، عالم الفيزياء الفلكية في معهد ماساتشوستس للتكنولوجيا، الذي يقود معهد مستقبل الحياة، وهي المنظمة التي تقف وراء الرسالة: “لم أعتقد أبدًا أن الشركات ستتوقف مؤقتًا طوعًا”. وهو اعتراف قد يجادل البعض بأنه يجعل المشروع برمته يبدو ساخرًا. يقول تيجمارك إن هدفه الرئيسي لم يكن إيقاف الذكاء الاصطناعي مؤقتًا، بل إضفاء الشرعية على الحديث حول مخاطر التكنولوجيا، بما في ذلك حقيقة أنها قد تنقلب على البشرية. ويقول إن النتيجة “تجاوزت توقعاتي”.
تُظهر الردود على متابعتي أيضًا التنوع الهائل في مخاوف الخبراء بشأن الذكاء الاصطناعي، وأن العديد من الموقعين ليسوا في الواقع مهووسين بالمخاطر الوجودية.
يقول لارس كوتوف، الأستاذ المشارك في جامعة وايومنغ، إنه لن يوقع على نفس الرسالة اليوم لأن العديد من الذين دعوا إلى التوقف مؤقتًا ما زالوا يعملون على تطوير الذكاء الاصطناعي. يقول كوتوف: “أنا منفتح على التوقيع على الرسائل التي تذهب في اتجاه مماثل، ولكن ليس تمامًا مثل هذا الخطاب”. ويضيف أن أكثر ما يثير قلقه اليوم هو احتمال حدوث “رد فعل مجتمعي عنيف ضد تطورات الذكاء الاصطناعي، وهو ما قد يعجل بشتاء آخر في مجال الذكاء الاصطناعي” من خلال قمع تمويل الأبحاث وجعل الناس يرفضون منتجات الذكاء الاصطناعي وأدواته.
أخبرني موقعون آخرون أنهم سيوقعون بكل سرور مرة أخرى، لكن يبدو أن مخاوفهم الكبيرة تتعلق بمشاكل على المدى القريب، مثل المعلومات المضللة وفقدان الوظائف، وليس سيناريوهات Terminator.
يقول ريتشارد كيهل، الأستاذ الذي يعمل في مجال الإلكترونيات الدقيقة في جامعة ولاية أريزونا: “في عصر الإنترنت وترامب، أستطيع أن أرى بسهولة أكبر كيف يمكن أن يؤدي الذكاء الاصطناعي إلى تدمير الحضارة الإنسانية عن طريق تشويه المعلومات وإفساد المعرفة”.
“هل سنحصل على Skynet الذي سيخترق كل هذه الخوادم العسكرية ويطلق أسلحة نووية في جميع أنحاء الكوكب؟ يقول ستيفن ماندر، طالب دكتوراه يعمل في مجال الذكاء الاصطناعي في جامعة لانكستر بالمملكة المتحدة: «لا أعتقد ذلك حقًا». لكنه يرى أن نزوح الوظائف على نطاق واسع يلوح في الأفق، ويصفه بأنه “خطر وجودي” على الاستقرار الاجتماعي. لكنه يشعر بالقلق أيضًا من أن الرسالة ربما حفزت المزيد من الأشخاص على تجربة الذكاء الاصطناعي، ويعترف بأنه لم يتصرف بناءً على دعوة الرسالة للإبطاء. “بعد التوقيع على الرسالة، ماذا فعلت خلال العام الماضي أو نحو ذلك؟ يقول: “لقد كنت أقوم بإجراء أبحاث حول الذكاء الاصطناعي”.
على الرغم من فشل الرسالة في إثارة توقف واسع النطاق، إلا أنها ساعدت في دفع فكرة أن الذكاء الاصطناعي يمكن أن يقضي على الإنسانية إلى موضوع رئيسي للمناقشة. وأعقب ذلك بيان عام وقعه قادة OpenAI وقسم DeepMind للذكاء الاصطناعي في Google، والذي قارن المخاطر الوجودية التي يشكلها الذكاء الاصطناعي مع الأسلحة النووية والأوبئة. في الشهر المقبل، ستستضيف الحكومة البريطانية مؤتمرا دوليا بعنوان “سلامة الذكاء الاصطناعي”، حيث سيناقش قادة من العديد من البلدان الأضرار المحتملة التي قد يسببها الذكاء الاصطناعي، بما في ذلك التهديدات الوجودية.