عندما سُئل جيفري هينتون، رائد الذكاء الاصطناعي والحائز على جائزة نوبل، عن الخطر الذي يشكله الذكاء الاصطناعي على البشر، أجاب بإشارة إلى مخرج هوليوود الأسطوري ونكتة قاتمة.
“قال جيمس كاميرون مؤخرًا المنهي قال: “كان متفائلاً للغاية”. “لأن البشر لديهم فرصة ضد الذكاء الخارق.”
تسليمه هو طريق مسدود.
هينتون، الذي يُشار إليه غالبًا باسم “الأب الروحي للذكاء الاصطناعي” لأعماله الرائدة في مجال الأنظمة العصبية، لا يتقن الكلمات عندما يتعلق الأمر بالتحول الزلزالي الذي بدأ الذكاء الاصطناعي في إحداثه بالفعل، فضلاً عن المخاطر التي تهدد البشرية كما يقول. يطرح.
وهو يفعل كل ذلك من خلال علامته التجارية الجافة البريطانية الكندية الفكاهة.
هينتون وزميله خبير الذكاء الاصطناعي جاكوب ستينهاردت، الذي جاء من وادي السيليكون لحضور سلسلة محاضرات من جزأين في تورونتو بعنوان صعود الذكاء الاصطناعي: المخاطر مقابل المكافأة، يجتمعون مع حوالي اثني عشر شخصًا في وسط المدينة لتناول عشاء حميم يوم الاثنين بعد مشاركة المسرح .
نادرًا ما يجري هينتون مقابلات، لذا فهذه فرصة فريدة لاختيار عقل الحائز على جائزة نوبل البالغ من العمر 76 عامًا.
عندما سئل هينتون عن الاضطراب الذي يلوح في الأفق في القوى العاملة والذي بدأه الذكاء الاصطناعي، قال إنه من الصعب قياس التحول الزلزالي الذي سيأتي في هذه اللحظة من الزمن، لكنه يشبهه بحجم الاضطراب الذي شهدناه خلال الثورة الصناعية.
“من المحتمل أن تكون كبيرة جدًا. “إنك تفعل ذلك بحيث لا يكون للذكاء البشري المتوسط قيمة كبيرة بعد الآن لأن الذكاء الاصطناعي يمكنه القيام بذلك”.
“إن الصحفيين في ورطة” ، كما يقول بإلقاء توقيعه الجامد.
على الرغم من أنهما يبدوان متفقين للغاية فيما يتعلق برسائلهما على خشبة المسرح، إلا أن هينتون يقول إنه وخبير التعلم الآلي ستينهاردت “يتفقان على الاختلاف” حول تنافر الأطباق الإيطالية في مطعم في حي كوين ستريت ويست في تورونتو.
يصف ستينهاردت، الذي تشمل خبرته العملية فترة عمله كعالم أبحاث في OpenAI في عام 2019، بأنه “متفائل قلق”. وهو يقف في تناقض صارخ مع تصريحات هينتون، التي ربما كانت ساخرة، رغم أنها ليست متفائلة.
احصل على الأخبار الوطنية العاجلة
للحصول على الأخبار التي تؤثر على كندا وحول العالم، قم بالتسجيل للحصول على تنبيهات الأخبار العاجلة التي يتم تسليمها إليك مباشرة عند حدوثها.
إن تحذيرات هينتون بشأن صعود الذكاء الاصطناعي تعود دائمًا إلى التهديد الوجودي الذي يقول إنه يمثله. الجانب المشرق في كلماته هو حقيقة أن هناك الكثير من الأشياء المجهولة عندما يتعلق الأمر بمسار الذكاء الاصطناعي.
“من الصعب جدًا وضع نموذج لما سيحدث مع الذكاء الاصطناعي من خلال النظر إلى ما حدث لأشياء أخرى. يقول هينتون: “الأمر مختلف تمامًا”. “لم يكن الإنترنت ينتج كائنات أكثر ذكاءً منا.”
عندما سُئل عن التهديد الذي يشكله الذكاء الاصطناعي، شبه شتاينهارت الذكاء الاصطناعي بـ “مجموعة كبيرة من الأشخاص الأذكياء للغاية”. إنهم ليسوا أكثر ذكاءً من البشر بشكل جماعي، في الوقت الحالي، لكنهم بالفعل أكثر ذكاءً من بعض البشر، في أشياء محددة مثل أنواع البرمجة، أو حتى لعب الشطرنج.
بالإضافة إلى حقيقة أنه لا يمكن لأحد التنبؤ بالنتائج التي تولدها هذه المجموعة، “فإنهم يتصرفون بغرابة شديدة ولديهم هذه القدرات الغريبة”، كما يقول ستينهاردت.
ويشير إلى أنها «تستطيع نسخ نفسها بحرية على أجهزة كمبيوتر جديدة» وتتكاثر «مثل الفيروس».
يقول ستينهاردت إنه قلق للغاية بشأن أنواع الهجمات الإلكترونية التي يمكن أن يطلقها الذكاء الاصطناعي قريبًا، من مناطق قضائية قد لا تتوافق أهدافها مع أهداف الديمقراطيات الغربية.
ويقول: “لا أعتقد أننا بعيدون عن احتمال قيام روسيا بتدمير شبكة الكهرباء في لوس أنجلوس أو شيء من هذا القبيل”.
يمكن أن تكون أهداف مثل البنية التحتية الحيوية وحتى خدمات الطوارئ في مرمى النيران من الآن وحتى عام 2030، وفقًا لشتاينهاردت.
ويقول: “مثل مكالمات 911 الزائفة التي تستخدم استنساخ الصوت، فهذا أمر مقنع للغاية”. “يقوم الناس بذلك بالفعل على نطاق صغير. أشعر بالقلق من أن مجموعة من المكالمات إلى 911 يمكن أن تعطل نظام الاستجابة للطوارئ بأكمله.
وهو، إلى حد بعيد، الأكثر تفاؤلاً بين الاثنين.
لدى هينتون وستينهاردت وجهات نظر مختلفة أيضًا حول سلامة الذكاء الاصطناعي.
وجهة نظر هينتون هي أن الذكاء الاصطناعي آمن، حتى لا يصبح كذلك. وما إذا كانت نقطة التحول هذه ستأتي خلال سنوات أو عقود أو حياة لا تغير ما يعتبره موقفًا محفوفًا بالمخاطر.
“السؤال هو: هل يمكننا التأكد من عدم رغبتها في السيطرة على الأمور أبدًا؟ يقول هينتون: “إذا كانت تريد السيطرة، وهي أكثر ذكاءً منا، فسوف نفشل”.
وتعززت رؤية ستينهاردت للمستقبل من خلال إطلاق Transluce، وهو مختبر أبحاث الذكاء الاصطناعي غير الربحي الذي أطلقه في أكتوبر من جامعة كاليفورنيا في بيركلي. وهدفها المعلن هو “بناء تكنولوجيا مفتوحة وقابلة للتطوير لفهم أنظمة الذكاء الاصطناعي وتوجيهها بما يخدم المصلحة العامة”.
في الأساس، استخدام الذكاء الاصطناعي لتحسين المشكلات ومراقبتها والإبلاغ عنها. وعندما سُئل عن حكمة استخدام الذكاء الاصطناعي لمراقبة نفسه، اعترف بأنه قد تكون هناك مشاكل في هذا النهج. لكنه مقتنع بأنه أفضل حل متاح.
“أنا لست قلقًا بشأن أنظمة الذكاء الاصطناعي التي نسيطر عليها اليوم. أنا قلق بشأن قدرتنا على معرفة ما هو صحيح. يقول: “أنا قلق بشأن الممثلين السيئين”. “يجب أن يكون الأمر أقرب إلى التعاون حيث يعمل الذكاء الاصطناعي على تمكين البشر.”
ولا يزال من أشد المؤيدين لقطاع عريض من الأشخاص من خلفيات متنوعة يجتمعون بشفافية لاستخدام الذكاء الاصطناعي كأداة جديدة وقوية وناشئة.
يقول ستينهاردت: “نظرًا للعواقب غير العادية التي يخلفها الذكاء الاصطناعي على المجتمع، فإن ما نفعله بالذكاء الاصطناعي يجب أن يكون محادثة عامة”.
عندما سُئل هينتون عن مستقبل الذكاء الاصطناعي، أعاده إلى جيمس كاميرون.
“لقد قال بشكل أساسي أن الأمر أسوأ مما كان يعتقد في فيلم Terminator”، كما يقول هينتون، الذي يذكر بعد ذلك تحذيرات كاميرون التي لم يتم الالتفات إليها بشأن احتمال فشل الغواصة OceanGate Titan بشكل كارثي، وهو ما حدث في يونيو 2023.
“وقال أيضًا أن الغواصة المصنوعة من ألياف الكربون لم تكن جيدة. وكان على حق في ذلك».
بيان تقشعر له الأبدان، ألقاه عراب الذكاء الاصطناعي بطريقة جامدة.