أطلقت شركة الذكاء الاصطناعي الصينية DeepSeek أحدث نموذج لغوي لها، تحت اسم DeepSeek-V3، والذي يقول مراقبو الصناعة إنه أحد أقوى النماذج مفتوحة المصدر حتى الآن.
ووفقا لـ TechCrunch، فأن نموذج اللغة DeepSeek-V3 يسمح للمطورين بتنزيله وتعديله لمختلف التطبيقات، بما في ذلك الاستخدام التجاري والمؤسسي.
يحتوي نموذج الذكاء الاصطناعي الصيني على 671 مليار معلمة، مع 37 مليارا مفعلا لكل رمز مميز تتم معالجته، حيث يستخدم بنيات متقدمة تقول الشركة إنها تعزز أدائها العام.
وهو قادر على التعامل مع مجموعة من المهام المستندة إلى النصوص مثل البرمجة والترجمة وكتابة المقالات أو رسائل البريد الإلكتروني من المطالبات الوصفية، وقد تجاوز DeepSeek V3 نماذج الذكاء الاصطناعي المفتوحة والمغلقة في الأداء، وفقا للاختبار الداخلي للشركة.
ويتفوق هذا النموذج على أنظمة الذكاء الاصطناعي الأخرى، بما في ذلك نموذج “ميتا” Llama 3.1، وGPT-4 من OpenAI، وQwen 2.5 من على بابا، في مجموعة فرعية من مسابقات البرمجة على منصة Codeforces.
تم تدريب هذا النموذج على مجموعة بيانات ضخمة مكونة من 14.8 تريليون رمز، مع مليون رمز يعادل حوالي 750,000 كلمة.
ومع ذلك، يجب على الشركات أن تضع في اعتبارها أنه على الرغم من أن حجم DeepSeek V3 يوفر أداءً قويا، إلا أنه يتطلب أيضا أجهزة كبيرة لتشغيله بكفاءة، قد تتطلب النسخة غير المحسنة بنكا من وحدات معالجة الرسومات المتطورة للتعامل مع المهام بسرعة معقولة.
على الرغم من ذلك، فإن تطوير النموذج يتميز بكفاءته، حيث قام DeepSeek بتدريب DeepSeek V3 باستخدام وحدات معالجة الرسوميات Nvidia H800 في شهرين فقط، بتكلفة إجمالية قدرها 5.5 مليون دولار، وهذا جزء بسيط من تكلفة نماذج التدريب مثل GPT-4 التابع لشركة OpenAI.
يمثل DeepSeek V3 تقدما في تطوير نموذج الذكاء الاصطناعي يستحق المتابعة، على الرغم من أن تطبيقه العملي محدود بسبب قيود الأجهزة، فهو يقدم كفاءة استثنائية، إذ إن تكلفة الإدخال في هذا النموذج أقل بعشر مرات من تكلفة النماذج الرائدة الأخرى، مثل تلك التي تقدمها OpenAI.
ويتوفر نموذج الذكاء الاصطناعي DeepSeek-V3 للتنزيل عبر منصتي GitHub و HuggingFace.