حذر جيف هينتون ، الملقب بـ “عراب الذكاء الاصطناعي” ، من مخاطر التكنولوجيا المثيرة بعد أسابيع من تركه وظيفته في Google.
وقال هينتون في مقابلة حديثة مع الإذاعة المنوعاتية العامة إن هناك “مخاطرة جدية بأن تصبح الأمور أكثر ذكاء منا في القريب العاجل ، وأن هذه الأمور قد تحصل على دوافع سيئة وتتولى زمام الأمور” ، بحسب ما شاهده موقع العربية نت. .
وأكد أن السياسيين وقادة الصناعة بحاجة إلى التفكير فيما يجب فعله فيما يتعلق بهذه القضية في الوقت الحالي.
قال: “لم يعد الأمر خيالًا علميًا”. “التقدم التكنولوجي مشكلة خطيرة من المحتمل أن تظهر قريبًا جدًا.”
ويعتقد أن العالم قد لا يكون بعيدًا عن الذكاء الاصطناعي العام ، الذي لديه القدرة على فهم أو تعلم أي مهمة فكرية يمكن لأي شخص القيام بها.
وحذر مشيرًا إلى اعتقاده السابق أن الوصول إلى هذا المستوى لن يكون قبل 30 إلى 50 عامًا ، وربما نكون أقرب كثيرًا. ربما بعد 5 سنوات فقط.
بينما قارن بعض الأشخاص روبوتات الدردشة مثل ChatGPT من OpenAI بالإكمال التلقائي ، قال هينتون إن الذكاء الاصطناعي مدرب على الفهم – وهو كذلك.
وأضاف: “لا أقول إنه واع ، ولا أنكر ذلك”.
وتابع “يمكنهم بالتأكيد التفكير ويمكنهم بالتأكيد فهم الأشياء”. “وبعض الناس من خلال الوسط الحساس.”
وقال إنه “منزعج” من مدى ذكاء نموذج PaLM من Google ، مشيرًا إلى أنه يتفهم النكات ولماذا كانت مضحكة.
مع إطلاق مثل هذا الذكاء الاصطناعي ، تأتي مخاوف بشأن استبدال الوظائف ، والخلافات السياسية ، وانتشار المعلومات المضللة التي يسببها الذكاء الاصطناعي.
بينما وقع بعض القادة – بما في ذلك Elon Maas ، الذي يمتلك حصته في الذكاء الاصطناعي – خطابًا مفتوحًا “للتوقف فورًا لمدة 6 أشهر على الأقل لتدريب أنظمة ذكاء اصطناعي أكثر قوة مثل GPT-4” ، لا يعتقد هينتون ذلك. يمكن إيقاف البحث.
وقال “إن البحث سيجرى في الصين إذا لم يحدث هنا”.
وسلط الضوء على أنه سيكون هناك العديد من الفوائد للذكاء الاصطناعي وشدد على أن القادة بحاجة إلى وضع الكثير من الموارد والجهود لمعرفة ما إذا كان من الممكن “الحفاظ على السيطرة حتى عندما يكونون أكثر ذكاءً منا”.