في عام 2014 ، استحوذت Google على DeepMind بعد إظهار النتائج المذهلة من البرامج التي تستخدم التعلم المعزز لإتقان ألعاب الفيديو البسيطة. على مدى السنوات العديدة التالية ، أظهر DeepMind كيف تقوم التقنية بأشياء بدت ذات يوم بشرية فريدة – غالبًا بمهارة خارقة. عندما تغلب AlphaGo على بطل Go Lee Sedol في عام 2016 ، أصيب العديد من خبراء الذكاء الاصطناعي بالذهول ، لأنهم اعتقدوا أن الأمر سيستغرق عقودًا قبل أن تصبح الآلات بارعة في لعبة بهذا التعقيد.
تفكير جديد
يتضمن تدريب نموذج لغوي كبير مثل GPT-4 الخاص بـ OpenAI تغذية كميات هائلة من النصوص المنسقة من الكتب وصفحات الويب ومصادر أخرى في برنامج التعلم الآلي المعروف باسم المحول. يستخدم الأنماط الموجودة في بيانات التدريب هذه ليصبح ماهرًا في التنبؤ بالحروف والكلمات التي يجب أن تتبع جزءًا من النص ، وهي آلية بسيطة تثبت فعاليتها بشكل لافت للنظر في الإجابة على الأسئلة وإنشاء نص أو رمز.
تتمثل إحدى الخطوات الإضافية المهمة في صنع ChatGPT ونماذج اللغة ذات القدرات المماثلة في استخدام التعلم المعزز بناءً على ردود الفعل من البشر على إجابات نموذج الذكاء الاصطناعي لتحسين أدائه. يمكن لخبرة DeepMind العميقة في التعلم المعزز أن تسمح لباحثيها بإعطاء الجوزاء قدرات جديدة.
قد يحاول حصابس وفريقه أيضًا تحسين تقنية نموذج اللغة الكبيرة بأفكار من مجالات أخرى من الذكاء الاصطناعي. يعمل باحثو DeepMind في مجالات تتراوح من الروبوتات إلى علم الأعصاب ، وفي وقت سابق من هذا الأسبوع ، عرضت الشركة خوارزمية قادرة على التعلم لأداء مهام التلاعب بمجموعة واسعة من أذرع الروبوت المختلفة.
من المتوقع على نطاق واسع أن يكون التعلم من التجربة الجسدية للعالم ، كما يفعل البشر والحيوانات ، مهمًا لجعل الذكاء الاصطناعي أكثر قدرة. يرى بعض خبراء الذكاء الاصطناعي حقيقة أن النماذج اللغوية تتعرف على العالم بشكل غير مباشر ، من خلال النص ، على أنها قيد رئيسي.
مستقبل غامض
تم تكليف حصابس بتسريع جهود جوجل للذكاء الاصطناعي مع إدارة المخاطر غير المعروفة والتي يحتمل أن تكون خطيرة. جعلت التطورات الأخيرة والسريعة في نماذج اللغة العديد من خبراء الذكاء الاصطناعي – بما في ذلك البعض ممن يبنون الخوارزميات – قلقين بشأن ما إذا كانت التكنولوجيا ستُستخدم في الاستخدامات الحاقدة أو سيصبح من الصعب التحكم فيها. حتى أن بعض المطلعين على التكنولوجيا طالبوا بوقف تطوير خوارزميات أكثر قوة لتجنب إنشاء شيء خطير.
يقول حسابيس إن الفوائد المحتملة غير العادية للذكاء الاصطناعي – مثل الاكتشاف العلمي في مجالات مثل الصحة أو المناخ – تجعل من الضروري ألا تتوقف البشرية عن تطوير التكنولوجيا. وهو يعتقد أيضًا أن فرض وقفة مؤقتة أمر غير عملي ، حيث سيكون من شبه المستحيل تنفيذه. يقول عن الذكاء الاصطناعي: “إذا تم إجراؤها بشكل صحيح ، فستكون أكثر التقنيات فائدة للإنسانية على الإطلاق”. “علينا أن نلاحق هذه الأشياء بجرأة وشجاعة.”
هذا لا يعني أن الحسابيين يؤيدون تطوير الذكاء الاصطناعي في عجلة من أمرهم. تعمل DeepMind على استكشاف المخاطر المحتملة للذكاء الاصطناعي منذ ما قبل ظهور ChatGPT ، وقد قاد Shane Legg ، أحد مؤسسي الشركة ، مجموعة “أمان الذكاء الاصطناعي” داخل الشركة لسنوات. انضم حصابس إلى شخصيات بارزة أخرى في مجال الذكاء الاصطناعي الشهر الماضي في التوقيع على بيان يحذر من أن الذكاء الاصطناعي قد يشكل يومًا ما خطرًا مشابهًا لحرب نووية أو جائحة.
يقول حسابيس إن أحد أكبر التحديات في الوقت الحالي هو تحديد مخاطر الذكاء الاصطناعي الأكثر قدرة. يقول: “أعتقد أن المزيد من الأبحاث الميدانية يجب إجراؤها – بشكل عاجل جدًا – حول أشياء مثل اختبارات التقييم” ، لتحديد مدى قدرة نماذج الذكاء الاصطناعي الجديدة وإمكانية التحكم فيها. لتحقيق هذه الغاية ، كما يقول ، قد تجعل DeepMind أنظمتها في متناول العلماء الخارجيين. يقول: “أود أن أرى الأوساط الأكاديمية تتمتع بإمكانية الوصول المبكر إلى هذه النماذج الحدودية” – وهو شعور إذا تم اتباعه يمكن أن يساعد في معالجة المخاوف من استبعاد الخبراء خارج الشركات الكبرى من أحدث أبحاث الذكاء الاصطناعي.
إلى أي مدى يجب أن تكون قلقًا؟ يقول حسابيس إنه لا أحد يعرف حقًا على وجه اليقين أن الذكاء الاصطناعي سيصبح خطرًا كبيرًا. لكنه متأكد من أنه إذا استمر التقدم بالوتيرة الحالية ، فلن يكون هناك الكثير من الوقت لتطوير الضمانات. يقول: “يمكنني رؤية أنواع الأشياء التي نبنيها في سلسلة Gemini بشكل صحيح ، وليس لدينا سبب للاعتقاد بأنها لن تعمل”.