أصدرت مجموعة من موظفي OpenAI السابقين والحاليين خطابًا عبر الإنترنت يعبرون فيه عن مخاوفهم بشأن التأثيرات والمخاطر الجسيمة التي يمكن أن تسببها تكنولوجيا الذكاء الاصطناعي (AI) على البشرية.
تم التوقيع على الرسالة، التي تم نشرها على righttowarn.ai، من قبل خمسة موظفين سابقين في OpenAI، وموظف حالي وسابق في Google DeepMind، وأربعة موظفين حاليين في OpenAI لم يتم ذكر أسمائهم، واثنين من موظفي OpenAI السابقين لم يتم ذكر أسمائهم.
وقالت المجموعة إن المخاطر التي يشكلها الذكاء الاصطناعي تتراوح بين “زيادة ترسيخ عدم المساواة القائمة، إلى التلاعب والتضليل، إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان”.
وكتبوا: “لقد اعترفت شركات الذكاء الاصطناعي نفسها بهذه المخاطر، كما فعلت الحكومات في جميع أنحاء العالم وغيرهم من خبراء الذكاء الاصطناعي”. “نأمل أن نتمكن من التخفيف من هذه المخاطر بشكل مناسب من خلال التوجيه الكافي من المجتمع العلمي وصانعي السياسات والجمهور.”
مؤتمر WWDC الخاص بشركة Apple سيكون نقطة تحول في مجال الذكاء الاصطناعي لشركة التكنولوجيا العملاقة
وتقول المجموعة إن شركات الذكاء الاصطناعي لديها حوافز مالية قوية لتجنب الرقابة الفعالة بالإضافة إلى معلومات جوهرية حول قدرات أنظمتها والقيود المفروضة عليها.
على سبيل المثال، لدى الشركات معلومات غير علنية حول مدى كفاية تدابير الحماية الخاصة بها ومستويات مخاطر أنواع مختلفة من الضرر الذي يمكن أن يأتي نتيجة لتقدم الذكاء الاصطناعي.
وقال دانييل كوكوتايلو، أحد أعضاء المجموعة والباحث السابق في قسم الحوكمة في OpenAI، لصحيفة نيويورك تايمز إن OpenAI متحمسة لبناء ذكاء اصطناعي عام، أو AGI، لكنهم “يتسابقون بتهور ليكونوا هناك أولاً”.
الرئيس التنفيذي لشركة ZOOM يريد من العملاء إرسال “التوائم الرقمية” المدعومة بالذكاء الاصطناعي إلى الاجتماعات المستقبلية
وقال كوكوتايلو إنه توقع سابقًا أن الذكاء الاصطناعي العام قد يصل بحلول عام 2050، على الرغم من أنه بعد رؤية مدى سرعة تقدم التكنولوجيا، قال لصحيفة التايمز أن هناك فرصة بنسبة 50٪ لوصول الذكاء الاصطناعي بحلول عام 2027.
وقال أيضًا إنه يعتقد أن احتمالية تدمير الذكاء الاصطناعي المتقدم أو التسبب في ضرر كارثي للبشرية تبلغ 70٪.
وقالت المجموعة إنها لا تعتقد أنه يمكن الاعتماد على الشركات لتبادل المعلومات طوعا.
وكتبوا: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”.
تمنع اتفاقيات السرية أعضاء المجموعة من التعبير عن مخاوفهم، وقالوا إن الحماية العادية للمبلغين عن المخالفات غير كافية، قائلين إنهم يركزون على النشاط غير القانوني. لم يتم تنظيم الذكاء الاصطناعي بعد، وبالتالي لا يمكن اعتباره نشاطًا غير قانوني.
Apple تكشف النقاب عن “Apple INTELLIGENCE” في مؤتمر WWDC
قالت OpenAI لـ FOX Business إنها تتفق مع دعوة الرسالة إلى التنظيم الحكومي لصناعة الذكاء الاصطناعي، حيث كانت الأولى في الصناعة التي دعت إلى مثل هذا التنظيم.
وقالت الشركة أيضًا إنها تتعامل بانتظام مع صانعي السياسات في جميع أنحاء العالم وتشجعهم على التقدم المحرز.
وقال متحدث باسم OpenAI أيضًا إن لديهم سجلًا حافلًا بعدم إطلاق التكنولوجيا حتى يتم وضع الضمانات اللازمة.
ونظرًا لأن منتجاتها تستخدم من قبل 92% من شركات Fortune 500، فإن الأنظمة الآمنة والموثوقة تعتبر أمرًا بالغ الأهمية. وقال المتحدث إنه إذا لم تكن المنتجات آمنة فلن تشترك الشركات.
وقال المتحدث باسم OpenAI: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة وأمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر”. “نحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.”
وأضاف المتحدث: “لهذا السبب أيضًا لدينا طرق للموظفين للتعبير عن مخاوفهم بما في ذلك الخط الساخن المجهول للنزاهة ولجنة السلامة والأمن بقيادة أعضاء مجلس الإدارة وقادة السلامة من الشركة”.