مايكروسوفت كشفت النقاب عن شريحتين في مؤتمر Ignite في سياتل يوم الأربعاء.
الأولى، شريحة الذكاء الاصطناعي Maia 100، التي يمكن أن تنافسها نفيديا وحدات معالجة الرسومات AI المرغوبة للغاية. أما الشريحة الثانية، وهي شريحة Cobalt 100 Arm، فهي تستهدف مهام الحوسبة العامة ويمكن أن تنافس معالجات Intel.
بدأت شركات التكنولوجيا الغنية بالنقود في منح عملائها المزيد من الخيارات للبنية التحتية السحابية التي يمكنهم استخدامها لتشغيل التطبيقات. علي بابالقد فعلت أمازون وجوجل هذا لسنوات. استحوذت مايكروسوفت، التي تمتلك نحو 144 مليار دولار نقدًا في نهاية أكتوبر، على 21.5% من حصة السوق السحابية في عام 2022، خلف أمازون فقط، وفقًا لأحد التقديرات.
ستصبح مثيلات الآلة الافتراضية التي تعمل على رقائق Cobalt متاحة تجاريًا من خلال سحابة Microsoft Azure في عام 2024، حسبما قال راني بوركار، نائب رئيس الشركة، في مقابلة مع CNBC. ولم تقدم جدولاً زمنيًا لإطلاق Maia 100.
جوجل أعلنت عن وحدة معالجة الموتر الأصلية للذكاء الاصطناعي في عام 2016. أمازون وكشفت خدمات الويب عن شريحة Graviton Arm ومعالج Inferentia AI في عام 2018، كما أعلنت عن Trainium لنماذج التدريب في عام 2020.
قد تتمكن شرائح الذكاء الاصطناعي الخاصة من موفري الخدمات السحابية من المساعدة في تلبية الطلب عندما يكون هناك نقص في وحدة معالجة الرسومات. لكن مايكروسوفت ونظيراتها في مجال الحوسبة السحابية لا تخطط للسماح للشركات بشراء خوادم تحتوي على شرائحها، على عكس Nvidia أو أيه إم دي.
وأوضح بوركار أن الشركة قامت ببناء رقاقتها لحوسبة الذكاء الاصطناعي بناءً على تعليقات العملاء.
وقال بوركار إن مايكروسوفت تختبر مدى استجابة Maia 100 لاحتياجات برنامج الدردشة الآلي الخاص بمحرك بحث Bing، ومساعد الترميز GitHub Copilot، وGPT-3.5-Turbo، وهو نموذج لغة كبير من OpenAI المدعوم من Microsoft. قامت OpenAI بتغذية نماذجها اللغوية بكميات كبيرة من المعلومات من الإنترنت، ويمكنها إنشاء رسائل بريد إلكتروني وتلخيص المستندات والإجابة على الأسئلة ببضع كلمات من التعليمات البشرية.
يعمل نموذج GPT-3.5-Turbo في مساعد ChatGPT الخاص بشركة OpenAI، والذي أصبح شائعًا بعد وقت قصير من توفره العام الماضي. ثم تحركت الشركات بسرعة لإضافة إمكانات دردشة مماثلة إلى برامجها، مما أدى إلى زيادة الطلب على وحدات معالجة الرسومات.
“لقد عملنا في جميع المجالات و(مع) جميع الموردين المختلفين لدينا للمساعدة في تحسين وضع العرض لدينا ودعم العديد من عملائنا والطلب الذي وضعوه أمامنا،” كوليت كريس، المدير المالي لشركة Nvidia. ، قال ذلك في مؤتمر Evercore في نيويورك في سبتمبر.
قامت OpenAI سابقًا بتدريب النماذج على وحدات معالجة الرسومات Nvidia في Azure.
بالإضافة إلى تصميم شريحة Maia، ابتكرت Microsoft أجهزة مخصصة مبردة بالسوائل تسمى Sidekicks والتي تتلاءم مع الرفوف بجوار الرفوف التي تحتوي على خوادم Maia. وقال متحدث باسم الشركة إن الشركة يمكنها تركيب رفوف الخادم ورفوف Sidekick دون الحاجة إلى التعديل التحديثي.
باستخدام وحدات معالجة الرسومات، قد يشكل تحقيق أقصى استفادة من مساحة مركز البيانات المحدودة تحديات. قال ستيف توك، المؤسس المشارك والرئيس التنفيذي لشركة Oxide Computer الناشئة للخوادم، إن الشركات تضع أحيانًا عددًا قليلاً من الخوادم التي تحتوي على وحدات معالجة الرسومات في الجزء السفلي من الحامل مثل “اليتيمة” لمنع ارتفاع درجة الحرارة، بدلاً من ملء الرف من الأعلى إلى الأسفل. وقال توك إن الشركات تضيف أحيانًا أنظمة تبريد لخفض درجات الحرارة.
قد تشهد شركة Microsoft اعتماداً أسرع لمعالجات Cobalt مقارنة بشرائح Maia AI إذا كانت تجربة Amazon بمثابة دليل. تقوم Microsoft باختبار تطبيق Teams وخدمة Azure SQL Database على Cobalt. وقالت مايكروسوفت إن أداءها حتى الآن أفضل بنسبة 40٪ من أداء شرائح Azure الحالية المستندة إلى Arm، والتي تأتي من شركة Ampere الناشئة.
في العام ونصف العام الماضيين، مع ارتفاع الأسعار وأسعار الفائدة، بحثت العديد من الشركات عن طرق لجعل إنفاقها السحابي أكثر كفاءة، وبالنسبة لعملاء AWS، كانت Graviton واحدة منها. قال نائب الرئيس ديف براون إن جميع أفضل 100 عميل لدى AWS يستخدمون الآن الرقائق المستندة إلى Arm، والتي يمكن أن تؤدي إلى تحسين أداء السعر بنسبة 40%.
ومع ذلك، قد يكون الانتقال من وحدات معالجة الرسومات إلى شرائح AWS Trainium AI أكثر تعقيدًا من الانتقال من Intel Xeons إلى Gravitons. كل نموذج من نماذج الذكاء الاصطناعي له مراوغاته الخاصة. قال براون إن العديد من الأشخاص عملوا على جعل مجموعة متنوعة من الأدوات تعمل على Arm بسبب انتشارها في الأجهزة المحمولة، وهذا أقل صحة بالنسبة للسيليكون بالنسبة للذكاء الاصطناعي. ولكن مع مرور الوقت، قال إنه يتوقع أن تشهد المؤسسات مكاسب مماثلة في أداء السعر مع Trainium مقارنة بوحدات معالجة الرسومات.
وقالت: “لقد شاركنا هذه المواصفات مع النظام البيئي ومع الكثير من شركائنا في النظام البيئي، وهو ما يفيد جميع عملاء Azure لدينا”.
وقالت بوركار إنها ليس لديها تفاصيل حول أداء Maia مقارنة بالبدائل مثل Nvidia’s H100. وقالت Nvidia يوم الاثنين إن جهاز H200 سيبدأ الشحن في الربع الثاني من عام 2024.
يشاهد: حققت Nvidia اليوم العاشر على التوالي من المكاسب، مدفوعة بإعلان شرائح الذكاء الاصطناعي الجديدة