أصدر قادة صناعة التكنولوجيا والعلماء والأساتذة تحذيرًا جديدًا بشأن المخاطر المرتبطة بالذكاء الاصطناعي.
وجاء في البيان الذي شاركه مركز أمان الذكاء الاصطناعي أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
وقال البيان إنه بينما يناقش الخبراء في هذا المجال وصانعو السياسات والصحفيون والجمهور بشكل متزايد المخاطر الناجمة عن التكنولوجيا ، “قد يكون من الصعب التعبير عن مخاوف بشأن بعض المخاطر الأكثر خطورة للذكاء الاصطناعي.”
وقالت صفحة الويب: “يهدف البيان المقتضب أدناه إلى التغلب على هذه العقبة وفتح باب المناقشة. كما أنه يهدف إلى خلق معرفة مشتركة بالعدد المتزايد من الخبراء والشخصيات العامة الذين يأخذون أيضًا بعض المخاطر الأكثر خطورة للذكاء الاصطناعي على محمل الجد”.
الرئيس التنفيذي لشركة OPENAI ألتمان ظهر بعد التهديد بالخروج من أوروبا بسبب مخاوف تتعلق بالتعديل
ومن بين الموقعين ديميس هاسابيس ، الرئيس التنفيذي لشركة Google DeepMind ، والرئيس التنفيذي لشركة OpenAI سام ألتمان ، وجيفري هينتون ، خبير البيئة ، بيل ماكيبين.
ومن بين المئات الذين وقعوا البيان أساتذة وباحثون وأشخاص في مناصب قيادية بالإضافة إلى المطرب غرايمز.
وقع أكثر من 1000 باحث وقائد تقني ، بما في ذلك الملياردير إيلون ماسك ، خطابًا في وقت سابق من هذا العام دعا فيه إلى توقف لمدة ستة أشهر لتدريب أنظمة أكثر تقدمًا من OpenAI’s GPT-4 ، قائلاً إنها تشكل “مخاطر عميقة على المجتمع والإنسانية “.
والجدير بالذكر أن التمان قال سابقًا إن الرسالة التي تدعو إلى الوقف لم تكن “الطريقة المثلى لمعالجة المشكلة”.
في مدونة الأسبوع الماضي ، قال هو وقادة الشركة إن الذكاء الاصطناعي بحاجة إلى هيئة رقابة دولية لتنظيم الذكاء الخارق في المستقبل.
يعتقد الثلاثي أنه من المتصور أن تتجاوز أنظمة الذكاء الاصطناعي مستويات مهارة الخبراء في معظم المجالات خلال العقد المقبل.
قال هينتون إن الذكاء الاصطناعي العام قد يكون على بعد بضع سنوات فقط ، وأخبر NPR أنه ليس من الممكن إيقاف البحث.
وقال “البحث سيجري في الصين إذا لم يحدث هنا”.
ساهمت وكالة أسوشيتد برس في هذا التقرير.