قبل وقت طويل من توقيع إيلون ماسك والمؤسس المشارك لشركة آبل ستيف وزنياك على رسالة تحذر من أن الذكاء الاصطناعي يشكل “مخاطر عميقة” على البشرية ، كان عالم الفيزياء النظرية البريطاني ستيفن هوكينغ يدق ناقوس الخطر بشأن التكنولوجيا سريعة التطور.
قال هوكينغ لبي بي سي في مقابلة في عام 2014: “إن تطوير الذكاء الاصطناعي الكامل يمكن أن يعني نهاية الجنس البشري”.
توفي هوكينج ، الذي عانى من التصلب الجانبي الضموري (ALS) لأكثر من 55 عامًا ، في عام 2018 عن عمر يناهز 76 عامًا. على الرغم من أنه كان لديه ملاحظات انتقادية على الذكاء الاصطناعي ، فقد استخدم أيضًا شكلاً أساسيًا جدًا من التكنولوجيا للتواصل بسبب مرضه الذي يضعف العضلات واضطر هوكينغ لاستخدام كرسي متحرك.
ترك هوكينج غير قادر على التحدث في عام 1985 واعتمد على طرق مختلفة للتواصل ، بما في ذلك جهاز توليد الكلام الذي تديره شركة إنتل ، والذي سمح له باستخدام حركات الوجه لاختيار الكلمات أو الحروف التي تم تصنيعها للكلام.
كان تعليق هوكينغ لبي بي سي في عام 2014 بأن الذكاء الاصطناعي يمكن أن “يوضح نهاية الجنس البشري” كان ردًا على سؤال حول إمكانية تجديد تقنية الصوت التي اعتمد عليها. وقال لبي بي سي إن الأشكال الأساسية للذكاء الاصطناعي أثبتت فعاليتها بالفعل ، لكن إنشاء أنظمة تنافس الذكاء البشري أو تتفوق عليه قد يكون كارثيًا على الجنس البشري.
قال: “ستنطلق من تلقاء نفسها وتعيد تصميم نفسها بمعدل متزايد باستمرار”.
وأضاف هوكينج: “البشر ، المحدودين بسبب التطور البيولوجي البطيء ، لا يمكنهم التنافس وسيتم استبدالهم”.
بعد أشهر من وفاته ، وصل كتاب هوكينج الأخير إلى السوق. يقدم كتابه بعنوان “إجابات مختصرة على الأسئلة الكبيرة” للقراء إجابات عن الأسئلة التي كان يطرحها كثيرًا. كشف كتاب العلوم عن حجة هوكينج ضد وجود الله ، وكيف سيعيش البشر على الأرجح في الفضاء يومًا ما ومخاوفه بشأن الهندسة الوراثية والاحتباس الحراري.
كما احتل الذكاء الاصطناعي صدارة قائمة “الأسئلة الكبيرة” ، بحجة أن أجهزة الكمبيوتر “من المحتمل أن تتفوق على البشر في الذكاء” في غضون 100 عام.
كتب: “قد نواجه انفجارًا استخباراتيًا ينتج عنه في النهاية آلات يتجاوز ذكائها ذكاءنا بأكثر من ذكاءنا الذي يفوق ذكاء القواقع”.
وجادل بأن أجهزة الكمبيوتر تحتاج إلى التدريب لتتماشى مع الأهداف البشرية ، مضيفًا أن عدم تحمل المخاطر المرتبطة بالذكاء الاصطناعي على محمل الجد قد يكون “أسوأ خطأ لنا على الإطلاق”.
“من المغري استبعاد فكرة الآلات عالية الذكاء باعتبارها مجرد خيال علمي ، لكن هذا سيكون خطأ – وربما يكون أسوأ خطأ على الإطلاق.”
تعكس تصريحات هوكينج مخاوف هذا العام من شركة التكنولوجيا العملاقة إيلون ماسك والمؤسس المشارك لشركة آبل ستيف وزنياك في خطاب صدر في مارس. وقع الزعيمان التقنيان ، جنبًا إلى جنب مع الآلاف من الخبراء الآخرين ، خطابًا يدعو إلى توقف لمدة ستة أشهر على الأقل لبناء أنظمة ذكاء اصطناعي أقوى من روبوت الدردشة GPT-4 الخاص بـ OpenAI.
جاء في الرسالة التي نشرتها منظمة مستقبل الحياة غير الربحية: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر جسيمة على المجتمع والإنسانية ، كما يتضح من الأبحاث المكثفة ومعترف بها من قبل مختبرات الذكاء الاصطناعي الكبرى”.
أصبح ChatGPT من OpenAI قاعدة المستخدمين الأسرع نموًا مع 100 مليون مستخدم نشط شهريًا في يناير حيث سارع الناس في جميع أنحاء العالم لاستخدام chatbot ، الذي يحاكي المحادثات الشبيهة بالبشر بناءً على المطالبات المقدمة. أصدر المختبر أحدث نسخة من النظام الأساسي ، GPT-4 ، في مارس.
على الرغم من الدعوات لإيقاف الأبحاث في مختبرات الذكاء الاصطناعي التي تعمل على التكنولوجيا التي من شأنها أن تتجاوز GPT-4 ، كان إطلاق النظام بمثابة لحظة فاصلة تردد صداها في جميع أنحاء صناعة التكنولوجيا ودفع العديد من الشركات للتنافس على بناء أنظمة الذكاء الاصطناعي الخاصة بها.
تعمل Google على إصلاح محرك البحث الخاص بها وحتى إنشاء محرك بحث جديد يعتمد على الذكاء الاصطناعي ؛ قامت Microsoft بطرح محرك بحث “Bing الجديد” الموصوف بأنه “مساعد طيار مدعوم بالذكاء الاصطناعي للويب” للمستخدمين ؛ وقال ماسك إنه سيطلق نظام ذكاء اصطناعي منافس وصفه بأنه “أقصى درجات البحث عن الحقيقة”.
نصح هوكينغ في العام السابق لوفاته أن العالم بحاجة إلى “تعلم كيفية الاستعداد وتجنب المخاطر المحتملة” المرتبطة بالذكاء الاصطناعي ، بحجة أن الأنظمة “يمكن أن تكون أسوأ حدث في تاريخ حضارتنا”. ومع ذلك ، فقد لاحظ أن المستقبل لا يزال مجهولاً وأن الذكاء الاصطناعي يمكن أن يكون مفيدًا للبشرية إذا تم تدريبه بشكل صحيح.
“النجاح في إنشاء ذكاء اصطناعي فعال يمكن أن يكون أكبر حدث في تاريخ حضارتنا. أو الأسوأ. نحن فقط لا نعرف. قال هوكينغ خلال كلمة ألقاها في مؤتمر تكنولوجيا Web Summit في البرتغال في عام 2017: “