نفيديا قفز السهم بما يقارب 1 تريليون دولار من القيمة السوقية في تعاملات ما بعد ساعات الأربعاء بعد أن أعلن عن توقعات مستقبلية قوية بشكل صادم وقال الرئيس التنفيذي جنسن هوانغ إن الشركة ستتمتع “بسنة قياسية عملاقة”.
ارتفعت المبيعات بسبب الطلب المتزايد على معالجات الرسومات (GPU) التي تصنعها Nvidia ، والتي تعمل على تشغيل تطبيقات الذكاء الاصطناعي مثل تلك الموجودة في Google و Microsoft و OpenAI.
دفع الطلب على رقائق الذكاء الاصطناعي في مراكز البيانات شركة Nvidia إلى توجيه مبيعات بقيمة 11 مليار دولار خلال الربع الحالي ، مما أدى إلى إضعاف تقديرات المحللين البالغة 7.15 مليار دولار.
وقال هوانغ في مقابلة مع قناة سي إن بي سي إن “نقطة الاشتعال كانت الذكاء الاصطناعي التوليدي”. “نحن نعلم أن توسيع وحدة المعالجة المركزية قد تباطأ ، ونعلم أن الحوسبة المتسارعة هي الطريق إلى الأمام ، ثم ظهر التطبيق القاتل.”
تعتقد Nvidia أنها تخوض تحولًا واضحًا في كيفية تصنيع أجهزة الكمبيوتر مما قد يؤدي إلى مزيد من النمو – فقد تصبح أجزاء لمراكز البيانات سوقًا بقيمة تريليون دولار ، كما يقول هوانغ.
تاريخيًا ، كان الجزء الأكثر أهمية في الكمبيوتر أو الخادم هو المعالج المركزي ، أو وحدة المعالجة المركزية (CPU) ، حيث سيطر على هذا السوق شركة انتل، مع AMD كمنافس رئيسي لها.
مع ظهور تطبيقات الذكاء الاصطناعي التي تتطلب الكثير من قوة الحوسبة ، يحتل معالج الرسومات (GPU) مركز الصدارة ، وتستخدم الأنظمة الأكثر تقدمًا ما يصل إلى ثمانية وحدات معالجة رسومات (GPU) لوحدة معالجة مركزية واحدة. تهيمن Nvidia حاليًا على سوق وحدات معالجة الرسومات AI.
وقال هوانغ “مركز البيانات في الماضي ، والذي كان إلى حد كبير وحدات معالجة مركزية لاسترجاع الملفات ، سيكون في المستقبل بيانات توليد”. “بدلاً من استرداد البيانات ، ستقوم باسترداد بعض البيانات ، لكن عليك إنشاء معظم البيانات باستخدام الذكاء الاصطناعي.”
وتابع هوانغ: “بدلاً من الملايين من وحدات المعالجة المركزية ، سيكون لديك عدد أقل بكثير من وحدات المعالجة المركزية ، ولكنها ستكون متصلة بملايين من وحدات معالجة الرسومات”.
على سبيل المثال ، تستخدم أنظمة DGX الخاصة بـ Nvidia ، والتي تعد في الأساس جهاز كمبيوتر AI للتدريب في صندوق واحد ، ثمانية من وحدات معالجة الرسومات H100 المتطورة من Nvidia ، ووحدتي CPU فقط.
يجمع الكمبيوتر العملاق A3 من Google ثماني وحدات معالجة رسومات H100 جنبًا إلى جنب مع معالج Xeon واحد متطور من إنتاج شركة Intel.
هذا هو أحد الأسباب التي أدت إلى نمو أعمال مركز البيانات في Nvidia بنسبة 14٪ خلال الربع الأول من التقويم مقارنة بالنمو الثابت لوحدة مركز بيانات AMD وانخفاض بنسبة 39٪ في وحدة أعمال مركز البيانات والذكاء الاصطناعي التابعة لشركة Intel.
بالإضافة إلى ذلك ، تميل وحدات معالجة الرسومات الخاصة بـ Nvidia إلى أن تكون أكثر تكلفة من العديد من المعالجات المركزية. يمكن أن يكلف أحدث جيل من وحدات المعالجة المركزية Xeon من Intel ما يصل إلى 17000 دولار بسعر القائمة. يمكن بيع جهاز Nvidia H100 واحد مقابل 40 ألف دولار في السوق الثانوية.
ستواجه Nvidia منافسة متزايدة مع ارتفاع درجة حرارة سوق رقائق الذكاء الاصطناعي. AMD لديها أعمال GPU تنافسية ، خاصة في الألعاب ، ولدى Intel خطها الخاص من وحدات معالجة الرسومات أيضًا. تقوم الشركات الناشئة ببناء أنواع جديدة من الرقائق خصيصًا للذكاء الاصطناعي والشركات التي تركز على الهاتف المحمول مثل كوالكوم وواصلت Apple دفع التكنولوجيا حتى تتمكن يومًا ما من العمل في جيبك ، وليس في مزرعة خوادم عملاقة. تقوم Google و Amazon بتصميم شرائح الذكاء الاصطناعي الخاصة بهما.
ولكن تظل وحدات معالجة الرسومات المتطورة من Nvidia هي الشريحة المفضلة للشركات الحالية التي تبني تطبيقات مثل ChatGPT ، والتي تعد مكلفة للتدريب من خلال معالجة تيرابايت من البيانات ، كما أنها مكلفة للتشغيل لاحقًا في عملية تسمى “الاستدلال” ، والتي تستخدم النموذج لإنشاء نص أو صور أو عمل تنبؤات.
يقول المحللون إن Nvidia لا تزال في طليعة رقائق الذكاء الاصطناعي بسبب برمجياتها الخاصة التي تسهل استخدام جميع ميزات أجهزة GPU لتطبيقات الذكاء الاصطناعي.
قال هوانغ يوم الأربعاء إن برنامج الشركة لن يكون من السهل نسخه.
“يجب عليك تصميم جميع البرامج وجميع المكتبات وجميع الخوارزميات ، ودمجها في الأطر وتحسينها ، وتحسينها للبنية ، ليس فقط شريحة واحدة ولكن بنية مركز البيانات بأكمله” ، هوانغ قال في مكالمة مع المحللين.