أكد جيفري هينتون ، الملقب بـ “الأب الروحي للذكاء الاصطناعي” ، يوم الاثنين أنه ترك دوره في Google الأسبوع الماضي للتحدث علناً عن “مخاطر” التكنولوجيا التي ساعد في تطويرها.
عمل هينتون الرائد في الشبكات العصبية على تشكيل أنظمة الذكاء الاصطناعي التي تعمل على تشغيل العديد من منتجات اليوم. لقد عمل بدوام جزئي في Google لمدة عقد من الزمان في جهود تطوير الذكاء الاصطناعي لعملاق التكنولوجيا ، ولكن منذ ذلك الحين أصبح لديه مخاوف بشأن التكنولوجيا ودوره في تطويرها.
قال هينتون لصحيفة نيويورك تايمز ، التي كانت أول من أبلغ عن قراره: “أعزّي نفسي بالعذر العادي: إذا لم أفعل ذلك ، لكان شخص آخر يفعل ذلك”.
في تغريدة يوم الإثنين ، قال هينتون إنه غادر Google حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي ، وليس بسبب الرغبة في انتقاد Google على وجه التحديد.
“غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على Google” ، قال هينتون قال في تغريدة. “لقد تصرفت Google بمسؤولية كبيرة.”
قال جيف دين ، كبير العلماء في Google ، إن هينتون “حقق اختراقات تأسيسية في مجال الذكاء الاصطناعي” وأعرب عن تقديره لـ “عقد من المساهمات في Google”.
وقال دين في بيان قدمه لشبكة سي إن إن: “نظل ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي”. “نتعلم باستمرار فهم المخاطر الناشئة مع الابتكار بجرأة أيضًا.”
يأتي قرار هينتون بالتخلي عن الشركة والتحدث عن التكنولوجيا في الوقت الذي أثار فيه عدد متزايد من المشرعين ومجموعات المناصرة والمطلعين في مجال التكنولوجيا إنذارات حول إمكانية قيام مجموعة جديدة من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بنشر المعلومات المضللة وإزاحة الوظائف.
ساعدت موجة الاهتمام حول ChatGPT أواخر العام الماضي في تجديد سباق التسلح بين شركات التكنولوجيا لتطوير ونشر أدوات ذكاء اصطناعي مماثلة في منتجاتها. تحتل OpenAI و Microsoft و Google موقع الصدارة في هذا الاتجاه ، لكن IBM و Amazon و Baidu و Tencent تعمل على تقنيات مماثلة.
في مارس / آذار ، وقع بعض الشخصيات البارزة في التكنولوجيا على رسالة تدعو معامل الذكاء الاصطناعي إلى وقف تدريب أقوى أنظمة الذكاء الاصطناعي لمدة ستة أشهر على الأقل ، مشيرة إلى “المخاطر العميقة على المجتمع والإنسانية”. الرسالة ، التي نشرها معهد Future of Life ، وهي منظمة غير ربحية يدعمها Elon Musk ، جاءت بعد أسبوعين فقط من إعلان OpenAI GPT-4 ، وهي نسخة أكثر قوة من التكنولوجيا التي تشغل ChatGPT. في الاختبارات المبكرة والعرض التوضيحي للشركة ، تم استخدام GPT-4 لصياغة الدعاوى القضائية واجتياز الاختبارات الموحدة وإنشاء موقع ويب عملي من رسم مرسوم يدويًا.
في مقابلة مع التايمز ، كرر هينتون المخاوف بشأن قدرة الذكاء الاصطناعي على إلغاء الوظائف وخلق عالم “لن يتمكن فيه الكثيرون من معرفة ما هو صحيح بعد الآن.” كما أشار إلى الوتيرة المذهلة للتقدم ، والتي تفوق بكثير ما توقعه هو وآخرون.
قال هينتون في المقابلة: “فكرة أن هذه الأشياء يمكن أن تصبح في الواقع أكثر ذكاءً من الناس – قلة من الناس يعتقدون ذلك”. لكن معظم الناس اعتقدوا أن الأمر بعيد المنال. واعتقدت أنه بعيد المنال. اعتقدت أنها كانت 30 إلى 50 سنة أو حتى أطول. من الواضح ، لم أعد أعتقد ذلك “.
حتى قبل أن يتنحى عن Google ، تحدث هينتون علنًا عن قدرة الذكاء الاصطناعي على إلحاق الضرر وكذلك الخير.
قال هينتون في خطاب بدء عام 2021 في المعهد الهندي للتكنولوجيا بومباي في مومباي: “أعتقد أن التقدم السريع للذكاء الاصطناعي سيغير المجتمع بطرق لا نفهمها تمامًا ولن تكون جميع التأثيرات جيدة”. . وأشار إلى أن الذكاء الاصطناعي سيعزز الرعاية الصحية مع خلق فرص للأسلحة الفتاكة ذاتية التشغيل. “أجد هذا الاحتمال أكثر إلحاحًا ومرعبًا بكثير من احتمال تولي الروبوتات ، والذي أعتقد أنه بعيد جدًا.”
هينتون ليس أول موظف في Google يرفع علمًا أحمر بشأن الذكاء الاصطناعي. في يوليو / تموز ، فصلت الشركة مهندسًا ادعى أن نظامًا للذكاء الاصطناعي لم يتم الإفراج عنه أصبح واعيًا ، قائلاً إنه انتهك سياسات التوظيف وأمن البيانات. رفض الكثير في مجتمع الذكاء الاصطناعي بشدة تأكيد المهندس.