دعا العشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وحتى بعض المشاهير يوم الثلاثاء إلى الحد من مخاطر الإبادة العالمية بسبب الذكاء الاصطناعي ، مجادلين في بيان موجز بأن خطر انقراض الذكاء الاصطناعي يجب أن يكون أولوية عالمية قصوى.
جاء في البيان الذي نشره مركز أمان الذكاء الاصطناعي: “يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
ووقع البيان كبار المسؤولين في الصناعة بما في ذلك الرئيس التنفيذي لشركة OpenAI سام التمان. ما يسمى “الأب الروحي” للذكاء الاصطناعي ، جيفري هينتون ؛ كبار المديرين التنفيذيين والباحثين من Google DeepMind and Anthropic ؛ كيفين سكوت ، كبير مسؤولي التكنولوجيا في Microsoft ؛ بروس شناير ، رائد أمن الإنترنت والتشفير ؛ المدافع عن المناخ بيل ماكيبين ؛ والموسيقي غرايمز ، من بين آخرين.
يسلط البيان الضوء على مخاوف واسعة النطاق بشأن الخطر النهائي للذكاء الاصطناعي غير الخاضع للرقابة. قال خبراء الذكاء الاصطناعي إن المجتمع لا يزال بعيدًا عن تطوير نوع الذكاء الاصطناعي العام الذي هو مادة الخيال العلمي. تعيد روبوتات المحادثة المتطورة حاليًا إنتاج أنماط تستند إلى بيانات التدريب التي تم تغذيتها ولا تفكر بها بنفسها.
ومع ذلك ، أدى تدفق الضجيج والاستثمار في صناعة الذكاء الاصطناعي إلى دعوات للتنظيم في بداية عصر الذكاء الاصطناعي ، قبل وقوع أي حوادث مؤسفة كبيرة.
يأتي البيان بعد النجاح الكبير الذي حققته شركة ChatGPT التابعة لشركة OpenAI ، والتي ساعدت في زيادة سباق التسلح في صناعة التكنولوجيا على الذكاء الاصطناعي. رداً على ذلك ، أثار عدد متزايد من المشرعين وجماعات المناصرة والمطلعين على التكنولوجيا إنذارات حول إمكانية قيام مجموعة جديدة من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بنشر معلومات مضللة وإزاحة الوظائف.
قال هينتون ، الذي ساعد عمله الرائد في تشكيل أنظمة الذكاء الاصطناعي الحالية ، لشبكة CNN سابقًا إنه قرر ترك دوره في Google و “إطلاق صافرة” على التكنولوجيا بعد أن أدرك “فجأة” أن هذه الأشياء تزداد ذكاءً منا “.
قال دان هندريكس ، مدير مركز أمان الذكاء الاصطناعي ، في تغريدة يوم الثلاثاء إن البيان الذي اقترحه لأول مرة ديفيد كروجر ، أستاذ الذكاء الاصطناعي في جامعة كامبريدج ، لا يمنع المجتمع من معالجة أنواع أخرى من مخاطر الذكاء الاصطناعي ، مثل التحيز الخوارزمي. أو معلومات مضللة.
قارن هندريكس بيان يوم الثلاثاء بتحذيرات علماء الذرة “بإصدار تحذيرات بشأن التقنيات ذاتها التي ابتكروها”.
“يمكن للمجتمعات إدارة مخاطر متعددة في وقت واحد ؛ انها ليست “إما / أو” ولكن “نعم / و” ، “هندريكس غرد. “من منظور إدارة المخاطر ، مثلما سيكون من التهور تحديد أولويات الأضرار الحالية بشكل حصري ، سيكون من التهور أيضًا تجاهلها أيضًا.”