حذر جيفري هينتون ، الذي استقال مؤخرًا من منصبه كنائب رئيس الهندسة في Google لدق ناقوس الخطر بشأن مخاطر الذكاء الاصطناعي ، في مقابلة نُشرت يوم الجمعة من أن العالم بحاجة إلى إيجاد طريقة للسيطرة على التكنولوجيا أثناء تطورها.
قال “الأب الروحي للذكاء الاصطناعي” لـ EL PAÍS عبر مؤتمر بالفيديو إنه يعتقد أن الرسالة التي تدعو إلى وقف لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي أقوى من GPT-4 الخاصة بـ OpenAI هي “ساذجة تمامًا” وأن أفضل ما يمكن أن يوصي به هو ذلك يعمل الكثير من عقول الذكاء على معرفة “كيفية احتواء مخاطر هذه الأشياء”.
وحث هينتون على أن “الذكاء الاصطناعي هو تقنية رائعة – فهو يسبب تقدمًا كبيرًا في الطب ، وفي تطوير مواد جديدة ، وفي التنبؤ بالزلازل أو الفيضانات … (لكننا) نحتاج إلى الكثير من العمل لفهم كيفية احتواء الذكاء الاصطناعي”. “لا فائدة من انتظار الذكاء الاصطناعي لتتفوق علينا ؛ يجب أن نتحكم فيه أثناء تطوره. علينا أيضًا أن نفهم كيفية احتوائه ، وكيفية تجنب عواقبه السلبية.”
على سبيل المثال ، يعتقد هينتون أن جميع الحكومات تصر على وضع علامة على الصور المزيفة.
يقول “ عراب الذكاء الاصطناعي ” إن الذكاء الاصطناعي يقترب من أن يكون أكثر ذكاءً منا ، ويمكنه إنهاء الإنسانية
قال العالم إن أفضل شيء نفعله الآن هو “بذل الكثير من الجهد في تطوير هذه التكنولوجيا كما نفعل للتأكد من أنها آمنة” – وهو ما يقول إنه لا يحدث الآن.
وأشار هينتون “كيف (يمكن) تحقيق ذلك في نظام رأسمالي؟ لا أعرف”.
عندما سئل عن مشاركة مخاوفه مع زملائه ، قال هينتون إن العديد من أذكى الأشخاص الذين يعرفهم “قلقون للغاية”.
“لقد دخلنا منطقة مجهولة تمامًا. نحن قادرون على بناء آلات أقوى منا ، لكننا ما زلنا مسيطرين. ولكن ماذا لو طورنا آلات أكثر ذكاءً منا؟” سأل. “ليست لدينا خبرة في التعامل مع هذه الأشياء”.
يقول هينتون إن هناك العديد من المخاطر المختلفة للذكاء الاصطناعي ، مشيرًا إلى تقليص الوظائف وإنشاء أخبار مزيفة. أشار هينتون إلى أنه يعتقد الآن أن الذكاء الاصطناعي قد يقوم بأشياء أكثر كفاءة من العقل البشري ، مع نماذج مثل ChatGPT لديها القدرة على رؤية بيانات أكثر بآلاف المرات من أي شخص آخر.
قال “هذا ما يخيفني”.
في تقدير تقريبي – قال إنه لم يكن واثقًا جدًا من هذا التوقع – قال هينتون إن الذكاء الاصطناعي سيستغرق ما بين خمسة و 20 عامًا لتجاوز الذكاء البشري.
سأل EL PAÍS عما إذا كان للذكاء الاصطناعي في النهاية غرضه أو أهدافه الخاصة.
أجاب هينتون: “هذا سؤال رئيسي ، ربما يكون الخطر الأكبر الذي يحيط بهذه التكنولوجيا”. قال إن الذكاء الاصطناعي لم يتطور ولا يأتي بالضرورة مع أهداف فطرية.
“لذا ، السؤال الكبير هو ، هل يمكننا التأكد من أن للذكاء الاصطناعي أهدافًا تفيدنا؟ هذه هي ما يسمى بمشكلة التوافق. ولدينا العديد من الأسباب التي تجعلنا قلقين للغاية. الأول هو أنه سيكون هناك دائمًا من يريدون لإنشاء جنود آليين. ألا تعتقد أن بوتين سوف يطورهم إذا استطاع؟ ” تساءل. “يمكنك القيام بذلك بشكل أكثر كفاءة إذا أعطيت الآلة القدرة على إنشاء مجموعة الأهداف الخاصة بها. في هذه الحالة ، إذا كانت الآلة ذكية ، فسوف تدرك قريبًا أنها تحقق أهدافها بشكل أفضل إذا أصبحت أكثر قوة.”
بينما قال هينتون إن جوجل تصرفت بمسؤولية ، أشار إلى أن الشركات تعمل في “نظام تنافسي”.
فيما يتعلق بالمضي قدمًا في التنظيم الوطني ، بينما قال هينتون إنه يميل إلى التفاؤل تمامًا ، فإن النظام السياسي الأمريكي لا يجعله يشعر بثقة كبيرة.
“في الولايات المتحدة ، النظام السياسي غير قادر على اتخاذ قرار بسيط مثل عدم إعطاء بنادق هجومية للمراهقين. هذا (يجعلني واثقًا جدًا) حول كيفية تعاملهم مع مشكلة أكثر تعقيدًا مثل هذا واحد ، “أوضح.
“هناك فرصة أنه ليس لدينا طريقة لتجنب نهاية سيئة … ولكن من الواضح أيضًا أن لدينا الفرصة للاستعداد لهذا التحدي. نحن بحاجة إلى الكثير من الأشخاص المبدعين والأذكياء. إذا كانت هناك أي طريقة لإبقاء الذكاء الاصطناعي تحت السيطرة ، نحن بحاجة إلى معرفة ذلك قبل أن يصبح ذكيًا للغاية “، أكد هينتون.