ملحوظة المحرر: ظهرت نسخة من هذه المقالة لأول مرة في النشرة الإخبارية “مصادر موثوقة”. اشترك في الملخص اليومي الذي يؤرخ لتطور المشهد الإعلامي هنا.
انقراض الإنسان.
فكر في ذلك لثانية. حقا فكر في ذلك. محو الجنس البشري من كوكب الأرض.
هذا ما يطلق كبار قادة الصناعة ناقوس الخطر بشأنه بشكل محموم. يواصل هؤلاء التقنيون والأكاديميون تحطيم زر الذعر الأحمر ، ويفعلون كل ما في وسعهم للتحذير من المخاطر المحتملة التي يشكلها الذكاء الاصطناعي على وجود الحضارة.
يوم الثلاثاء ، أعرب المئات من كبار علماء الذكاء الاصطناعي والباحثين وغيرهم – بمن فيهم الرئيس التنفيذي لشركة OpenAI سام ألتمان والرئيس التنفيذي لشركة Google DeepMind ديميس هاسابيس – مرة أخرى عن قلقهم العميق بشأن مستقبل البشرية ، ووقعوا خطابًا مفتوحًا من جملة واحدة للجمهور يستهدف لوضع المخاطر التي تحملها التكنولوجيا المتطورة بسرعة بعبارات لا لبس فيها.
وجاء في الرسالة ، التي وقعها العديد من الشخصيات الأكثر احترامًا في الصناعة ، أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
لا يصبح الأمر أكثر وضوحًا وإلحاحًا من ذلك. يحذر قادة الصناعة هؤلاء حرفياً من أن ثورة الذكاء الاصطناعي الوشيكة يجب أن تؤخذ على محمل الجد مثل تهديد الحرب النووية. إنهم يطالبون صانعي السياسة بإقامة بعض الحواجز ووضع لوائح أساسية للتخلص من التكنولوجيا البدائية قبل فوات الأوان.
دان هندريكس ، المدير التنفيذي لمركز أمان الذكاء الاصطناعي ، دعا الوضع “يذكرنا بإصدار علماء الذرة تحذيرات حول التقنيات ذاتها التي ابتكروها. كما أشار روبرت أوبنهايمر ، “كنا نعلم أن العالم لن يكون هو نفسه”.
“هناك العديد من” المخاطر المهمة والعاجلة من الذكاء الاصطناعي “، وليس فقط خطر الانقراض ؛ على سبيل المثال ، التحيز المنهجي ، والمعلومات المضللة ، والاستخدام الخبيث ، والهجمات الإلكترونية ، والتسليح ، “تابع هندريكس. “هذه كلها مخاطر مهمة يجب معالجتها.”
ومع ذلك ، يبدو أن الرسالة الرهيبة التي يحاول هؤلاء الخبراء يائسين توجيهها للجمهور لا تخترق ضجيج الحياة اليومية. قد يدق خبراء الذكاء الاصطناعي ناقوس الخطر ، لكن مستوى الخوف – وفي بعض الحالات الرعب المطلق – الذي يخشونه بشأن التكنولوجيا لا يتردد على نحو مماثل من قبل وسائل الإعلام الإخبارية للجماهير.
بدلاً من ذلك ، وبصورة عامة ، تعاملت المؤسسات الإخبارية مع رسالة يوم الثلاثاء – مثل جميع التحذيرات الأخرى التي رأيناها في الأشهر الأخيرة – على أنها مجرد عنوان رئيسي آخر ، ممزوج بمجموعة متنوعة من القصص. لم تعرض بعض المؤسسات الإخبارية الكبرى حتى مقالًا حول التحذير المروع على الصفحات الرئيسية لموقعها على الويب.
إلى حد ما ، يبدو الأمر وكأنه يذكرنا بشكل مخيف بالأيام الأولى للوباء ، قبل الذعر المنتشر وعمليات الإغلاق وغرف الطوارئ المكتظة. راقبت غرف الأخبار التهديد المتزايد الذي يشكله الفيروس ، ونشرت قصصًا عن انتشاره ببطء في جميع أنحاء العالم. ولكن بحلول الوقت الذي تم فيه التعرف على الطبيعة الخطيرة للفيروس بالكامل ودمجها في الجوهر الذي تمت تغطيته فيه ، كان قد قلب العالم بالفعل بشكل فعال.
يخاطر التاريخ بإعادة نفسه مع الذكاء الاصطناعي ، مع مخاطر أكبر. نعم ، تغطي المؤسسات الإخبارية التكنولوجيا المتطورة. لكن كان هناك نقص كبير في الإلحاح المحيط بالمسألة بالنظر إلى الاحتمال المفتوح لخطر كوكبي.
ربما يكون ذلك لأنه قد يكون من الصعب التصالح مع فكرة أن نهاية العالم للخيال العلمي على غرار هوليوود يمكن أن تصبح حقيقة ، وأن تكنولوجيا الكمبيوتر المتقدمة قد تصل إلى سرعة الهروب وتقضي على البشر من الوجود. ومع ذلك ، فإن هذا هو بالضبط ما يحذر كبار الخبراء في العالم من إمكانية حدوثه.
من الأسهل بكثير تجنب الحقائق غير المريحة ، ودفعها من المقدمة إلى الخلفية ، على أمل أن تحل المشكلات نفسها بمرور الوقت. لكن في كثير من الأحيان لا يفعلون ذلك – ويبدو من غير المرجح أن تحل المخاوف المتزايدة المتعلقة بالذكاء الاصطناعي نفسها. في الواقع ، من المرجح جدًا أنه مع الوتيرة السريعة التي تتطور بها التكنولوجيا ، ستصبح المخاوف أكثر وضوحًا مع مرور الوقت.
كما قالت سينثيا رودين ، أستاذة علوم الكمبيوتر وباحثة الذكاء الاصطناعي في جامعة ديوك ، لشبكة CNN يوم الثلاثاء: “هل نحتاج حقًا إلى مزيد من الأدلة على أن التأثير السلبي للذكاء الاصطناعي يمكن أن يكون كبيرًا مثل الحرب النووية؟”