قال الكاتب والمخرج كريستوفر نولان في فيلم “أوبنهايمر” إنه أصبح من الواضح أن المآزق الأخلاقية التي يشكلها الذكاء الاصطناعي تعكس تلك التي يواجهها روبرت أوبنهايمر ، الذي رويت قصته عن تطوير القنبلة الذرية في الفيلم الذي عُرض يوم الجمعة في دور العرض الأمريكية.
عندما طور أوبنهايمر السلاح في أوائل الأربعينيات من القرن الماضي ، واجه الفيزيائي النظري رد فعل عنيفًا وعدم اليقين من الجيش الأمريكي والكونغرس ، تمامًا مثل صناعة التكنولوجيا التي تواجهها اليوم في سباقها لجعل الذكاء الاصطناعي أكثر قوة ، كما قال نولان في مقابلة حديثة مع تشاك تود من NBC News.
قال نولان: “عندما أتحدث إلى كبار الباحثين في مجال الذكاء الاصطناعي في الوقت الحالي ، على سبيل المثال ، يشيرون حرفيًا إلى هذا باعتباره لحظة أوبنهايمر الخاصة بهم”. “إنهم يتطلعون إلى قصته ليقولوا” حسنًا ، ما هي مسؤوليات العلماء الذين يطورون تقنيات جديدة قد يكون لها عواقب غير مقصودة؟ “
قال عالم الفيزياء النظرية الحالي كارلو روفيلي ، الذي انضم إلى نولان في مقابلة مع خبراء آخرين ، إنه فكر في كيفية ملاءمة أوبنهايمر للقرن الحادي والعشرين.
قال روفيلي: “إن نوع الأسئلة التي تثيرها لا تتعلق فقط بأربعينيات القرن الماضي وبشأن القضايا العامة المتعلقة بأخلاق العلماء”. “إنهم أسئلة ملحة اليوم.”
مع استمرار التطور السريع للذكاء الاصطناعي ، فإن مخاوف أوبنهايمر الأخلاقية بشأن التخلي عن العملية العلمية لصالح السلامة المحلية تلوح في الأفق ، حيث يحذر الخبراء من تهديد محتمل للأمن القومي إذا انتشر ما يسمى بـ “تسليح الذكاء الاصطناعي” ولم يعد بإمكان البشر التحكم الكامل في أنظمة الأسلحة المستقلة.
كتبت بيرجيتا دريسب لانجلي ، الأستاذة في جامعة ستراسبورغ في فرنسا والمتخصصة في الفلسفة والذكاء الاصطناعي والمعلومات ، في مارس / آذار في مجلة Frontiers in Artificial Intelligence: “خطر ظهور أشكال جديدة من أسلحة الدمار الشامل في ظل شكل مختلف جذريًا وأكثر تعقيدًا وخبيثًا أصبح الآن حقيقيًا”.
تشمل المخاطر المحتملة الأخرى المرتبطة بالذكاء الاصطناعي التكاليف البيئية غير العادلة ، و “التنميط ، والتشهير ، وزيادة الأيديولوجية المتطرفة ، والاعتقال غير المشروع” ، وفقًا لتقرير كتبته مجموعة من الباحثين في عام 2021.
قال نولان إن العلاقة الحميمة المتزايدة بين الذكاء الاصطناعي والأسلحة تكشف الحاجة إلى مساءلة الشركات. وقال إن فكرة الأشخاص الذين ينتجون أو يستخدمون التكنولوجيا دون فهم حقيقي لتداعياتها “مرعبة … لأن أنظمة الذكاء الاصطناعي تدخل البنية التحتية الدفاعية ، وفي النهاية سيكونون مسؤولين عن الأسلحة النووية.”
عند تكرار أول تفجير لسلاح نووي ، يسمى اختبار ترينيتي ، عمل نولان على التأكد من أنه يشعر بأنه حقيقي و “خطير … جميل ومرعب بنفس القدر”.