في يوليو من العام الماضي، أعلنت شركة OpenAI عن تشكيل فريق بحث جديد من شأنه أن يستعد لظهور ذكاء اصطناعي فائق الذكاء قادر على التفوق على مبدعيه والتغلب عليهم. تم تعيين إيليا سوتسكيفر، كبير العلماء في OpenAI وأحد مؤسسي الشركة، كقائد مساعد لهذا الفريق الجديد. وقالت OpenAI إن الفريق سيحصل على 20 بالمائة من قوته الحاسوبية.
تؤكد الشركة الآن أن “فريق التوافق الفائق” التابع لـ OpenAI لم يعد موجودًا. يأتي ذلك بعد مغادرة العديد من الباحثين المعنيين، وأخبار يوم الثلاثاء عن مغادرة Sutskever للشركة، و استقالة من زميل الفريق الآخر. سيتم استيعاب عمل المجموعة في الجهود البحثية الأخرى لـ OpenAI.
تصدرت رحيل سوتسكيفر عناوين الأخبار لأنه على الرغم من أنه ساعد الرئيس التنفيذي سام ألتمان في بدء OpenAI في عام 2015 وتحديد اتجاه البحث الذي أدى إلى ChatGPT، إلا أنه كان أيضًا أحد أعضاء مجلس الإدارة الأربعة الذين طردوا ألتمان في نوفمبر. تمت استعادة ألتمان كرئيس تنفيذي بعد خمسة أيام من الفوضى بعد ثورة جماعية قام بها موظفو OpenAI والتوسط في صفقة ترك فيها سوتسكيفر واثنين آخرين من مديري الشركة مجلس الإدارة.
بعد ساعات من إعلان رحيل سوتسكيفر يوم الثلاثاء، قال جان ليك، الباحث السابق في DeepMind والذي كان القائد الآخر لفريق Superalignment، نشرت على X أنه استقال.
لم يستجب Sutskever ولا Leike لطلبات التعليق، ولم يعلقوا علنًا على سبب تركهم لـ OpenAI. قدمت Sutskever الدعم لمسار OpenAI الحالي في مشاركة على X. وكتب: “لم يكن مسار الشركة أقل من معجزة، وأنا واثق من أن OpenAI ستبني الذكاء الاصطناعي العام الآمن والمفيد في نفس الوقت” في ظل قيادتها الحالية.
يضيف حل فريق OpenAI الفائق إلى الأدلة الحديثة على حدوث هزة داخل الشركة في أعقاب أزمة الحوكمة في نوفمبر الماضي. تم فصل اثنين من الباحثين في الفريق، ليوبولد أشنبرينر وبافيل إسماعيلوف، بسبب تسريب أسرار الشركة، حسبما ذكرت صحيفة ذا إنفورميشن الشهر الماضي. غادر عضو آخر في الفريق، ويليام سوندرز، شركة OpenAI في فبراير، وفقًا لمنشور في منتدى على الإنترنت باسمه.
ويبدو أيضًا أن باحثين آخرين من OpenAI يعملان في مجال سياسات الذكاء الاصطناعي وإدارته قد تركا الشركة مؤخرًا. ترك كولين أوكيف منصبه كقائد بحثي حول حدود السياسة في أبريل، وفقًا لموقع LinkedIn. دانييل كوكوتاجلو، الباحث في OpenAI الذي شارك في تأليف العديد من الأوراق البحثية حول مخاطر نماذج الذكاء الاصطناعي الأكثر قدرة، “ترك OpenAI بسبب فقدان الثقة في أنها ستتصرف بشكل مسؤول في وقت قريب من الذكاء الاصطناعي العام”، وذلك وفقًا لمنشور على منتدى على الإنترنت باسمه. . ولم يستجب أي من الباحثين الذين غادروا على ما يبدو لطلبات التعليق.
رفضت شركة OpenAI التعليق على مغادرة Sutskever أو أعضاء آخرين في فريق Superalignment، أو مستقبل عملها بشأن مخاطر الذكاء الاصطناعي طويلة المدى. وسيقود الآن البحث حول المخاطر المرتبطة بالنماذج الأكثر قوة جون شولمان، الذي يشارك في قيادة الفريق المسؤول عن ضبط نماذج الذكاء الاصطناعي بعد التدريب.