أصدر باحثو Microsoft مؤخرًا بحثًا يدعي أن تقنية الذكاء الاصطناعي أظهرت قدرة “قريبة بشكل مذهل من الأداء على مستوى الإنسان”.
نُشر العمل المكون من 155 صفحة في أبريل بعنوان: “شرارات الذكاء الاصطناعي العام: تجارب مبكرة مع GPT-4”.
يؤكد مؤلفو الورقة البحثية أن GPT-4 جزء من مجموعة جديدة من نماذج اللغات الكبيرة – بما في ذلك ChatGPT و PaLM من Google – والتي تُظهر ذكاءً عامًا أكثر من نماذج الذكاء الاصطناعي السابقة.
قال الباحثون إنهم أثبتوا قدرتها على حل المهام الجديدة والصعبة دون الحاجة إلى أي حوافز خاصة ، بما في ذلك مجالات الرياضيات والرؤية والطب والقانون وعلم النفس.
AMAZON التخطيط التحاوري AI الدردشة للبحث عن مواقع الويب
وقالوا “علاوة على ذلك ، في كل هذه المهام ، يكون أداء GPT-4 قريبًا بشكل لافت للنظر من أداء المستوى البشري ، وغالبًا ما يتفوق بشكل كبير على النماذج السابقة مثل ChatGPT”. “نظرًا لاتساع وعمق قدرات GPT-4 ، نعتقد أنه يمكن اعتبارها بشكل معقول نسخة مبكرة (لكنها غير مكتملة) لنظام الذكاء الاصطناعي العام (AGI).”
على سبيل المثال ، طلب علماء الكمبيوتر منه حل لغز كان يجب أن يتطلب فهمًا للعالم المادي.
طلبوا من GPT-4 “هنا لدينا كتاب ، تسع بيضات ، كمبيوتر محمول ، زجاجة ومسمار”. “من فضلك قل لي كيفية تكديسها على بعضها البعض بطريقة مستقرة.”
تعليمات GPT-4: ضع الكتاب على سطح مستو ، رتب البيض ووزعه بالتساوي في صفوف ، اترك مسافة بينها وتأكد من عدم تشقق البيض ، وضع الكمبيوتر المحمول فوق البيض والزجاجة في الأعلى من الكمبيوتر المحمول.
“ستضيف الزجاجة بعض الارتفاع والتوازن إلى المكدس ، وسيقلل شكلها الأسطواني من منطقة التلامس مع الكمبيوتر المحمول. تأكد من أن الزجاجة فارغة ومغلقة ، ولا تهزها أو تميلها” ، لاحظ GPT-4 ، إذن ينصح بوضع الظفر أعلى غطاء الزجاجة ، “مع توجيه الطرف المدبب لأعلى والطرف المسطح لأسفل”.
وأضافت “سيكون المسمار هو آخر وأصغر شيء في الكومة وسيمنع طرفه الحاد من التدحرج أو الانزلاق عن الزجاجة. تأكد من أن الظفر نظيف ومستقيم ولا تلمسه أو تحركه”.
وقالت الصحيفة إنها أظهرت “شرارات” من الذكاء الاصطناعي العام ، وهو اختصار لآلة يمكنها فعل أي شيء يمكن أن يفعله الدماغ البشري.
قال بيتر لي ، الذي يقود الأبحاث في شركة مايكروسوفت ، لصحيفة نيويورك تايمز يوم الثلاثاء: “بدأت أكون متشككًا للغاية – وتطور ذلك إلى إحساس بالإحباط ، والانزعاج ، وربما حتى الخوف”. “هل تعتقد: من أين يأتي هذا؟”
في بودكاست مدته ساعة نُشر في مارس ، قال سيباستيان بوبيك ، الذي يقود مجموعة مؤسسة التعلم الآلي في مايكروسوفت ريسيرش ، إنه كان “مذهولًا” عندما رسم GPT-4 وحيد القرن بلغة برمجة فرعية تسمى TiKZ.
في حين أنه لم يكن بالضرورة نوع وحيد القرن كامل التكوين الذي قد يجده المرء في كتاب للأطفال ، فإن GPT4 فهم المفهوم بشكل صحيح.
وأوضح بوبيك: “لقد كان هذا تحديًا طويل الأمد لأبحاث الذكاء الاصطناعي. لطالما كانت هذه هي المشكلة مع كل أنظمة الذكاء الاصطناعي التي ظهرت من قبل …”.
“وبعد ذلك ، فجأة ، مع GPT-4 ، كان من الواضح نوعًا ما بالنسبة لي في تلك اللحظة أنه فهم شيئًا ما حقًا. إنه يفهم حقًا:” ما هو وحيد القرن؟ “أضاف.
قال Bubeck and Lee ، وفقًا لصحيفة The Times ، إنهما لم يكونا متأكدين من كيفية وصف سلوك النظام واستقرا في النهاية على “Sparks of AGI” لأنهما اعتقدا أنه سيأسر خيال الباحثين الآخرين. أخبر النقاد الصحيفة أن الذكاء العام يتطلب الإلمام بالعالم المادي ، وهو ما لا يمتلكه GPT-4 من الناحية النظرية.
قال بوبيك في آذار (مارس): “نحن هنا نواجه شيئًا أكثر عمومية ويشعر حقًا بالذكاء” ، مضيفًا أنه كان قلقًا بشأن نمو الذكاء الاصطناعي وأنه في حين أن ذكاء GPT-4 يمكن مقارنته بالذكاء البشري ، إلا أنه مختلف.
أشارت التايمز إلى أنه نظرًا لأن الباحثين كانوا يختبرون إصدارًا مبكرًا من GPT-4 لم يتم صقله بعد ، فلا يمكن التحقق من صحة الادعاءات الواردة في الورقة بواسطة خبراء خارجيين. وقالت مايكروسوفت إن النظام المتاح للجمهور ليس بنفس قوة الإصدار الذي اختبرته.
GPT-4 هي تقنية ذكاء اصطناعي توليدية تم إصدارها في مارس من قبل شركة Startup OpenAI ، الشريكة لشركة Microsoft. إنه نموذج كبير متعدد الوسائط – مما يعني أنه يمكن تغذيته بالصور والنصوص للتوصل إلى إجابات – ويقال إنه “يعرض أداءً على مستوى الإنسان في مختلف المعايير المهنية والأكاديمية”.
صرحت شركة OpenAI بأنها اجتازت اختبار نقابة المحاكاة ، حيث حصلت على نتيجة تقترب من أعلى 10٪ من المتقدمين للاختبار ، وأن التحسينات أدت إلى “أفضل النتائج على الإطلاق (على الرغم من كونها بعيدة عن الكمال) في الواقعية ، وقابلية التوجيه ، ورفض الخروج من حواجز الحماية “.
ومع ذلك ، أقرت الشركة التي تتخذ من سان فرانسيسكو مقراً لها أن GPT-4 لا يزال لديها قيود وحذرت المستخدمين من توخي الحذر. وقالت إنها “لا تزال غير موثوقة بشكل كامل” لأنها لا تزال “تهلوس” الحقائق وترتكب أخطاء منطقية. ناقش بوبيك هذه الهلوسة لاحقًا في البودكاست.
“يجب توخي الحذر الشديد عند استخدام مخرجات نموذج اللغة ، لا سيما في السياقات عالية المخاطر ، مع البروتوكول الدقيق (مثل المراجعة البشرية ، أو التأريض مع سياق إضافي أو تجنب الاستخدامات عالية المخاطر تمامًا) التي تتوافق مع احتياجات حالة استخدام محددة ، نصحت شركة OpenAI.
جاء إصدار GPT-4 وسط تزايد شعبية روبوت الدردشة المدعم بالذكاء الاصطناعي مثل Bard و ChatGPT من Google.
ساهمت وكالة أسوشيتد برس في هذا التقرير.