تعرض ليزا سو شريحة ADM Instinct M1300 أثناء قيامها بإلقاء خطاب رئيسي في CES 2023 في The Venetian Las Vegas في 4 يناير 2023 في لاس فيجاس ، نيفادا.
ديفيد بيكر | صور جيتي
AMD قال يوم الثلاثاء إن معالج الجرافيكس الأكثر تقدمًا في مجال الذكاء الاصطناعي ، MI300X ، سيبدأ في الشحن إلى بعض العملاء في وقت لاحق من هذا العام.
يمثل إعلان AMD التحدي الأقوى لـ نفيديا، التي تهيمن حاليًا على سوق رقائق الذكاء الاصطناعي بحصة سوقية تزيد عن 80٪ ، وفقًا للمحللين.
وحدات معالجة الرسومات (GPU) هي شرائح تستخدمها شركات مثل OpenAI لبناء برامج ذكاء اصطناعي متطورة مثل ChatGPT.
إذا تم تبني رقائق الذكاء الاصطناعي من AMD ، والتي تسميها “المسرعات” ، من قبل المطورين وصانعي الخوادم كبدائل لمنتجات Nvidia ، فقد تمثل سوقًا كبيرًا غير مستغل لصانع الرقائق ، والذي يشتهر بمعالجات الكمبيوتر التقليدية.
أخبرت ليزا سو ، الرئيس التنفيذي لشركة AMD ، المستثمرين والمحللين في سان فرانسيسكو يوم الثلاثاء أن الذكاء الاصطناعي هو “أكبر فرصة للنمو طويل الأجل وأكثرها استراتيجية” للشركة.
وقال سو: “نحن نفكر في نمو (سوق) مسرع الذكاء الاصطناعي لمركز البيانات من 30 مليار دولار هذا العام ، بمعدل نمو سنوي مركب يزيد عن 50٪ ، إلى أكثر من 150 مليار دولار في عام 2027”.
على الرغم من أن AMD لم تكشف عن السعر ، إلا أن هذه الخطوة قد تضغط على الأسعار على وحدات معالجة الرسومات الخاصة بـ Nvidia ، مثل H100 ، والتي يمكن أن تكلف 30 ألف دولار أو أكثر. قد تساعد أسعار GPU المنخفضة في خفض التكلفة العالية لخدمة تطبيقات الذكاء الاصطناعي التوليدية.
رقائق الذكاء الاصطناعي هي واحدة من النقاط المضيئة في صناعة أشباه الموصلات ، بينما تراجعت مبيعات أجهزة الكمبيوتر ، المحرك التقليدي لمبيعات معالجات أشباه الموصلات.
في الشهر الماضي ، قالت Lisa Su ، الرئيس التنفيذي لشركة AMD ، في مكالمة أرباح أنه في حين أن MI300X سيكون متاحًا لأخذ العينات هذا الخريف ، فإنه سيبدأ الشحن بكميات أكبر العام المقبل. شاركت Su مزيدًا من التفاصيل حول الشريحة خلال عرضها التقديمي يوم الثلاثاء.
قال سو: “أحب هذه الشريحة”.
MI300X
قالت AMD إن شريحة MI300X الجديدة وبنية CDNA الخاصة بها تم تصميمها لنماذج اللغات الكبيرة ونماذج الذكاء الاصطناعي المتطورة الأخرى.
قال سو: “في قلب هذا توجد وحدات معالجة الرسومات. تعمل وحدات معالجة الرسومات على تمكين الذكاء الاصطناعي التوليدي”.
يمكن أن يستخدم MI300X ما يصل إلى 192 جيجابايت من الذاكرة ، مما يعني أنه يمكن أن يناسب نماذج AI أكبر من الرقائق الأخرى. يدعم H100 منافس Nvidia فقط 120 جيجابايت من الذاكرة ، على سبيل المثال.
تستخدم نماذج اللغات الكبيرة لتطبيقات الذكاء الاصطناعي التوليدية الكثير من الذاكرة لأنها تشغل عددًا متزايدًا من العمليات الحسابية. قامت AMD بتوضيح MI300x بتشغيل نموذج 40 مليار معلمة يسمى Falcon. يحتوي نموذج GPT-3 الخاص بـ OpenAI على 175 مليار معلمة.
قال سو: “أحجام النماذج تزداد حجمًا ، وتحتاج بالفعل إلى العديد من وحدات معالجة الرسومات لتشغيل أحدث نماذج اللغات الكبيرة” ، مشيرًا إلى أنه مع الذاكرة المضافة على رقائق AMD ، لن يحتاج المطورون إلى العديد من وحدات معالجة الرسومات.
قالت AMD أيضًا إنها ستقدم Infinity Architecture التي تجمع ثمانية من مسرعات M1300X في نظام واحد. طورت Nvidia و Google أنظمة مماثلة تجمع بين ثمانية أو أكثر من وحدات معالجة الرسومات في صندوق واحد لتطبيقات الذكاء الاصطناعي.
أحد الأسباب التي جعلت مطوري الذكاء الاصطناعي يفضلون تاريخياً رقائق Nvidia هو أنه يحتوي على حزمة برامج مطورة جيدًا تسمى CUDA تمكنهم من الوصول إلى ميزات الأجهزة الأساسية للشريحة.
قالت AMD يوم الثلاثاء إن لديها برنامجها الخاص لرقائق الذكاء الاصطناعي التي تسميها ROCm.
قال فيكتور بينج ، رئيس AMD: “الآن بينما هذه رحلة ، فقد أحرزنا تقدمًا كبيرًا حقًا في بناء مجموعة برامج قوية تعمل مع النظام البيئي المفتوح للنماذج والمكتبات والأطر والأدوات”.