هوانغ رنشن 1.5 ساعة يعلن عن 8 منتجات جديدة، نفيديا تركز بالكامل على استنتاج الذكاء الاصطناعي وذكاء الفيزياء الاصطناعي

المؤلف | ZeR0 جوند، ذي تويس

المحرر | مو يينغ

تقرير من ذا تشاينا تكنولوجي في لاس فيغاس 5 يناير، حيث أدلى مؤسس ومدير تنفيذي لشركة إنفيديا، هوان رونغشون، بأول خطاب رئيسي لعام 2026 في معرض الإلكترونيات الاستهلاكية CES 2026. كان هوان رونغشون كما هو معتاد يرتدي سترة جلدية، وأعلن خلال 1.5 ساعة عن 8 إعلانات مهمة، من الرقائق، والأرفف إلى تصميم الشبكات، مع تقديم شامل للجيل الجديد من المنصات.

في مجالي الحوسبة المعجلة والبنية التحتية للذكاء الاصطناعي، أطلقت إنفيديا حاسوبها الفائق NVIDIA Vera Rubin POD AI، وNVIDIA Spectrum-X لعبوات الألياف البصرية المجمعة عبر Ethernet، ومنصة تخزين سياق الاستدلال، وNVIDIA DGX SuperPOD المبنية على DGX Vera Rubin NVL72.

اعتمدت NVIDIA Vera Rubin POD على 6 شرائح مطورة ذاتياً من إنفيديا، تغطي CPU، GPU، التوسع الأفقي، التوسع الرأسي، التخزين، والقدرات المعالجة، جميعها مصممة بشكل تعاوني لتلبية متطلبات النماذج المتقدمة وتقليل تكاليف الحوسبة.

وتشمل، CPU Vera المعتمد على بنية Olympus المخصصة، وGPU Rubin الذي أدخل محرك Transformer، حيث تصل أداء استنتاج NBFP4 إلى 50PFLOPS، وعرض NVLink لكل GPU يصل إلى 3.6TB/ث، مع دعم الحوسبة السرية العامة من الجيل الثالث (أول TEE على مستوى الأرفف)، وتحقيق بيئة تنفيذ موثوقة كاملة عبر النطاق بين CPU وGPU.

تمت معاينة جميع هذه الشرائح، وأكملت إنفيديا التحقق من نظام NVIDIA Vera Rubin NVL72 بالكامل، وبدأ الشركاء في تشغيل نماذج وخوارزميات الذكاء الاصطناعي المدمجة داخلياً، مع استعداد كامل للنظام البيئي لنشر Vera Rubin.

وفي الإعلانات الأخرى، حسّنت Spectrum-X عبوات الألياف البصرية المجمعة عبر Ethernet بشكل ملحوظ من كفاءة الطاقة ووقت التشغيل الطبيعي للتطبيقات؛ وأعادت منصة تخزين سياق الاستدلال تعريف طبقة التخزين، لتقليل الحسابات المكررة وتحسين كفاءة الاستدلال؛ وقلل DGX SuperPOD المبني على Vera Rubin NVL72 من تكلفة رموز نماذج MoE الكبيرة إلى 1/10.

بالنسبة للنماذج المفتوحة، أعلنت إنفيديا عن توسيع مجموعة النماذج المفتوحة، وأطلقت نماذج جديدة، ومجموعات بيانات، ومكتبات، بما في ذلك إضافة نماذج Agentic RAG، ونماذج الأمان، ونماذج الصوت، كما أطلقت نماذج مفتوحة جديدة لجميع أنواع الروبوتات. ومع ذلك، لم يذكر هوان رونغشون التفاصيل خلال الخطاب.

وفي مجال الذكاء الاصطناعي الفيزيائي، لقد حان وقت ChatGPT الفيزيائي، حيث تتيح تقنيات إنفيديا الشاملة تغيير الصناعات عبر الروبوتات المدفوعة بالذكاء الاصطناعي؛ وتوفر مكتبة أدوات الذكاء الاصطناعي الواسعة من إنفيديا، بما في ذلك مجموعة النماذج المفتوحة الجديدة Alpamayo، وسيلة سريعة لتحقيق القيادة الآمنة من المستوى L4 في قطاع النقل العالمي؛ ومنصة القيادة الذاتية NVIDIA DRIVE أصبحت الآن في الإنتاج، ومثبتة على جميع سيارات مرسيدس-بنز CLA الجديدة، لاستخدام القيادة المعتمدة على الذكاء الاصطناعي من المستوى L2++.

01. حاسوب خارق جديد للذكاء الاصطناعي: 6 شرائح مطورة، قدرة حسابية تصل إلى 3.6EFLOPS في الأرفف الواحدة

يعتقد هوان رونغشون أن صناعة الحوسبة ستشهد إعادة تشكيل كاملة كل 10 إلى 15 سنة، لكن هذه المرة، يحدث تحولان في المنصات في آن واحد، من CPU إلى GPU، ومن “برمجيات البرمجة” إلى “برمجيات التدريب”، حيث أعادت الحوسبة المعجلة والذكاء الاصطناعي تشكيل كامل طبقة الحوسبة. والصناعة التي كانت تقدر قيمتها بـ 10 تريليون دولار خلال العقد الماضي، تمر الآن بعملية تحديث حديثة.

وفي الوقت نفسه، ارتفعت الحاجة إلى القدرة الحاسوبية بشكل حاد. ينمو حجم النماذج بمعدل 10 أضعاف سنوياً، وعدد الرموز التي تستخدمها النماذج للتفكير ينمو بمعدل 5 أضعاف سنوياً، بينما تنخفض تكلفة كل رمز بنسبة 10 أضعاف سنوياً.

لمواجهة هذا الطلب، قررت إنفيديا إصدار أجهزة حوسبة جديدة كل عام. وكشف هوان رونغشون أن Vera Rubin قد دخلت الآن مرحلة الإنتاج الشامل.

اعتمدت حاسوبها الخارق الجديد للذكاء الاصطناعي NVIDIA Vera Rubin POD على 6 شرائح مطورة من إنفيديا: Vera CPU، Rubin GPU، NVLink 6 Switch، ConnectX-9 (CX9) بطاقة الشبكة الذكية، BlueField-4 DPU، Spectrum-X 102.4T CPO.

Vera CPU: مصمم لنقل البيانات ومعالجة الوكيل الذكي، ويحتوي على 88 نواة Olympus مخصصة من إنفيديا، و176 خيطاً من المعالجة متعددة الخيوط، وذاكرة NVLink-C2C بسرعة 1.8TB/ث، لدعم ذاكرة موحدة بين CPU وGPU، مع ذاكرة نظام تصل إلى 1.5TB (ثلاثة أضعاف ذاكرة معالج Grace)، وذاكرة LPDDR5X عبر SOCAMM بسرعة 1.2TB/ث، مع دعم الحوسبة السرية على مستوى الأرفف، مما يضاعف أداء معالجة البيانات.

Rubin GPU: أدخل محرك Transformer، ويصل أداء استنتاج NVFP4 إلى 50PFLOPS، وهو خمسة أضعاف أداء GPU Blackwell، ومتوافق مع الإصدارات السابقة، مع تحسين أداء BF16/FP4 مع الحفاظ على دقة الاستنتاج؛ ويصل أداء تدريب NVFP4 إلى 35PFLOPS، وهو 3.5 أضعاف Blackwell.

ويعد Rubin أول منصة تدعم HBM4، بسرعة عرض تصل إلى 22TB/ث، أي 2.8 مرة من الجيل السابق، مما يوفر الأداء المطلوب لنماذج MoE الصعبة وأعباء العمل AI.

NVLink 6 Switch: سرعة الخط الواحد تصل إلى 400Gbps، باستخدام تقنية SerDes لنقل الإشارات عالية السرعة؛ ويمكن لكل GPU أن يحقق عرض نطاق تواصل كامل قدره 3.6TB/ث، وهو ضعف الجيل السابق، مع عرض نطاق إجمالي يبلغ 28.8TB/ث، وأداء حسابي في الشبكة عند دقة FP8 يصل إلى 14.4TFLOPS، مع دعم التبريد السائل بنسبة 100%.

NVIDIA ConnectX-9 SuperNIC: يوفر لكل GPU عرض نطاق 1.6Tb/ث، ومُحسن للأعباء الكبيرة من الذكاء الاصطناعي، مع مسار بيانات قابل للبرمجة، ومعرفة كاملة بالبرمجيات، ومعالجة تسريع.

NVIDIA BlueField-4: DPU بسرعة 800Gbps، مخصص لبطاقات الشبكة الذكية ومعالجات التخزين، مزود بمعالج Grace بسرعة 64 نواة، ويجمع بين ConnectX-9 SuperNIC، لتفريغ مهام الحوسبة المتعلقة بالشبكة والتخزين، مع تعزيز قدرات الأمان الشبكي، وأداء الحوسبة يزيد بمقدار 6 مرات عن الجيل السابق، وسرعة الوصول إلى البيانات في الذاكرة تتضاعف، مع زيادة سرعة الوصول إلى البيانات من قبل GPU إلى الضعف.

NVIDIA Vera Rubin NVL72: يدمج جميع المكونات السابقة على مستوى النظام في نظام معالجة واحد، ويحتوي على 2 تريليون ترانزستور، ويصل أداء استنتاج NVFP4 إلى 3.6EFLOPS، وأداء تدريب NVFP4 إلى 2.5EFLOPS.

سعة ذاكرة LPDDR5X لهذا النظام تصل إلى 54TB، أي 2.5 مرة من الجيل السابق؛ وذاكرة HBM4 الإجمالية تصل إلى 20.7TB، أي 1.5 مرة؛ وعرض النطاق الترددي لـ HBM4 يبلغ 1.6PB/ث، أي 2.8 مرة من الجيل السابق؛ ويصل إجمالي عرض النطاق التوسعي الرأسي إلى 260TB/ث، متجاوزاً إجمالي عرض النطاق للإنترنت العالمي.

يعتمد هذا النظام على تصميم رف MGX من الجيل الثالث، ويستخدم منصة حسابية معيارية، بدون مضيف، بدون كابلات، وبتصميم بدون مروحة، مما يسرع عملية التجميع والصيانة بمقدار 18 مرة مقارنة بـ GB200. كانت عملية التجميع التي تستغرق ساعتين، أصبحت الآن حوالي 5 دقائق فقط، ومع استخدام التبريد السائل بنسبة 100%، بعد أن كانت تستخدم حوالي 80% سابقاً. ويزن النظام الواحد حوالي 2 طن، ومع سائل التبريد يصل إلى 2.5 طن.

تتيح منصة NVLink Switch صيانة بدون توقف مع تحمل الأخطاء، حيث يمكن للنظام أن يظل يعمل عند إزالة أو توزيع أجزاء من الرف. ويمكن لمحرك RAS من الجيل الثاني إجراء فحوصات الحالة بدون توقف.

هذه الميزات تعزز وقت التشغيل والإنتاجية، وتقلل من تكاليف التدريب والاستدلال، وتلبي متطلبات مراكز البيانات من حيث الاعتمادية وسهولة الصيانة.

وقد أعد أكثر من 80 شريكاً في نظام MGX لدعم نشر Rubin NVL72 في الشبكات واسعة النطاق.

02. ثلاث منتجات جديدة تعزز كفاءة استدلال الذكاء الاصطناعي: جهاز CPO الجديد، طبقة التخزين السياقي الجديدة، وDGX SuperPOD المبني على Vera Rubin NVL72

وفي الوقت نفسه، أطلقت إنفيديا 3 منتجات مهمة: Spectrum-X لعبوات الألياف البصرية المجمعة عبر Ethernet، منصة تخزين سياق الاستدلال، وDGX SuperPOD المبني على DGX Vera Rubin NVL72.

1. Spectrum-X لعبوات الألياف البصرية المجمعة عبر Ethernet

يعتمد Spectrum-X على بنية Spectrum-X، ويستخدم تصميم شرائح من قطعتين، وتقنية SerDes بسرعة 200Gbps، وتوفر كل شريحة ASIC عرض نطاق 102.4Tb/ث.

يشمل منصة التبديل نظاماً عالي الكثافة بـ 512 منفذ، ونظاماً مضغوطاً بـ 128 منفذ، مع سرعة 800Gb/ث لكل منفذ.

نظام التبديل CPO (المجمعة البصرية) يحقق زيادة في الكفاءة بمقدار 5 مرات، وزيادة في الموثوقية بمقدار 10 مرات، وتحسين وقت التشغيل الطبيعي للتطبيقات بمقدار 5 مرات.

وهذا يعني أنه يمكن معالجة المزيد من الرموز يومياً، مما يقلل من التكلفة الإجمالية لملكية مراكز البيانات (TCO).

2. منصة تخزين سياق الاستدلال من إنفيديا

هي بنية تخزين أصلية للذكاء الاصطناعي على مستوى POD، تُستخدم لتخزين ذاكرة KV Cache، وتعمل بواسطة BlueField-4 و Spectrum-X Ethernet، وتتكامل بشكل وثيق مع NVIDIA Dynamo و NVLink، لتحقيق تنسيق سياقي مشترك بين الذاكرة والتخزين والشبكة.

تعامل المنصة السياق كنوع بيانات من الدرجة الأولى، وتحقق أداء استدلال أعلى بمقدار 5 مرات، وكفاءة طاقة محسنة بمقدار 5 مرات.

وهذا ضروري لتحسين تطبيقات الحوار متعدد الجولات، وRAG، والاستدلال متعدد الخطوات Agentic، حيث تعتمد بشكل كبير على قدرة النظام على تخزين وإعادة استخدام ومشاركة السياق بكفاءة.

يتطور الذكاء الاصطناعي من روبوتات الدردشة إلى ذكاء Agentic (الوكيل الذكي)، الذي يمكنه الاستنتاج، واستدعاء الأدوات، والحفاظ على الحالة على المدى الطويل، مع توسيع نافذة السياق إلى مئات الآلاف من الرموز. تُخزن هذه السياقات في KV Cache، وإعادة حسابها في كل خطوة ستضيع وقت GPU وتسبب تأخيرات هائلة، لذلك من الضروري وجود تخزين.

لكن، بالرغم من سرعة ذاكرة GPU، فهي نادرة، ووسائل التخزين الشبكية التقليدية غير فعالة للمحتوى السياقي القصير الأمد. ويصبح عنق الزجاجة في الاستدلال هو التخزين، لذا هناك حاجة إلى طبقة ذاكرة جديدة بين GPU والتخزين، مخصصة لتحسين الاستدلال.

هذه الطبقة ليست مجرد تصحيح لاحق، بل يجب أن تتصمم بشكل تعاوني مع التخزين الشبكي، لنقل بيانات السياق بأقل تكلفة ممكنة.

وباعتبارها مستوى تخزين جديد، لا توجد منصة تخزين سياق الاستدلال من إنفيديا مباشرة في النظام المضيف، بل تتصل عبر BlueField-4 إلى الأجهزة الحاسوبية خارج النظام. الميزة الأساسية هي القدرة على توسيع حجم تجمعات التخزين بكفاءة أكبر، وتجنب الحساب المكرر لـ KV Cache.

وتعمل إنفيديا بشكل وثيق مع شركاء التخزين لإدخال منصة تخزين سياق الاستدلال إلى منصة Rubin، مما يتيح للعملاء نشرها كجزء من بنية تحتية متكاملة للذكاء الاصطناعي.

3. بناء DGX SuperPOD من Vera Rubin

على مستوى النظام، يُعد DGX SuperPOD من إنفيديا مخططاً لنشر مصانع الذكاء الاصطناعي واسعة النطاق، ويستخدم 8 أنظمة DGX Vera Rubin NVL72، مع شبكة NVLink 6 للتوسع الرأسي، وشبكة Spectrum-X Ethernet للتوسع الأفقي، ويدمج منصة تخزين سياق الاستدلال، ويخضع حالياً للاختبار الهندسي.

يدير النظام برمجياً بواسطة NVIDIA Mission Control، لتحقيق أقصى كفاءة. يمكن للعملاء نشره كمنصة جاهزة، مع تقليل عدد وحدات GPU اللازمة للتدريب والاستدلال.

وبفضل التنسيق المثالي بين 6 شرائح، والأرفف، والأرفف، وPods، ومراكز البيانات، والبرمجيات، حقق Rubin انخفاضاً كبيراً في تكاليف التدريب والاستدلال. مقارنة بالجيل السابق Blackwell، يتطلب تدريب نموذج MoE بنفس الحجم ربع عدد وحدات GPU؛ وتكلفة الرموز لنموذج MoE كبير عند نفس التأخير انخفض إلى 1/10.

كما أُطلق نظام NVIDIA DGX SuperPOD باستخدام DGX Rubin NVL8.

وبفضل بنية Vera Rubin، تعمل إنفيديا مع شركائها وعملائها على بناء أكبر وأحدث وأرخص أنظمة الذكاء الاصطناعي في العالم، لتسريع اعتماد الذكاء الاصطناعي بشكل رئيسي.

سيتم توفير بنية Rubin التحتية في النصف الثاني من العام عبر CSP ومتكاملين أنظمة، مع أن تكون مايكروسوفت من أوائل المستخدمين.

03. توسعة عالم النماذج المفتوحة: نماذج جديدة، بيانات، ومساهمات في المجتمع المفتوح

على مستوى البرمجيات والنماذج، تواصل إنفيديا زيادة استثماراتها في المصادر المفتوحة.

وتُظهر منصات التطوير الرئيسية مثل OpenRouter أن استخدام نماذج الذكاء الاصطناعي زاد بمقدار 20 مرة خلال العام الماضي، وأن حوالي ربع الرموز تأتي من نماذج مفتوحة المصدر.

بحلول 2025، كانت إنفيديا أكبر مساهم في نماذج، وبيانات، ووصفات مفتوحة المصدر على منصة Hugging Face، حيث أطلقت 650 نموذجاً مفتوحاً و250 مجموعة بيانات مفتوحة.

وتتصدر نماذج إنفيديا المفتوحة العديد من التصنيفات. يمكن للمطورين استخدام هذه النماذج، والتعلم منها، والتدريب المستمر، وتوسيع مجموعات البيانات، وبناء أنظمة ذكاء اصطناعي باستخدام أدوات وموارد مفتوحة المصدر.

استلهاماً من Perplexity، لاحظ هوان رونغشون أن الوكلاء (Agents) يجب أن يكونوا نماذج متعددة، ومتعددة السحابة، وهجينة، وهو الهيكل الأساسي لنظام Agentic AI، والذي تتبناه تقريباً جميع الشركات الناشئة.

بفضل نماذج وأدوات إنفيديا المفتوحة، يمكن للمطورين الآن تخصيص أنظمة الذكاء الاصطناعي، واستخدام أحدث النماذج، ودمجها بسهولة. وقد دمجت إنفيديا هذه الأطر في “خطة” متكاملة، ودمجتها في منصة SaaS، بحيث يمكن للمستخدمين نشرها بسرعة.

وفي العروض الحية، يمكن لهذا النظام أن يحدد تلقائياً، بناءً على نية المستخدم، ما إذا كان ينبغي أن تتم المعالجة بواسطة نموذج خاص محلياً أو نموذج سحابي متقدم، ويمكنه استدعاء أدوات خارجية (مثل API للبريد الإلكتروني، واجهات تحكم الروبوت، خدمات التقويم)، وتحقيق دمج متعدد الوسائط، لمعالجة النصوص، والصوت، والصور، وإشارات أجهزة الاستشعار للروبوتات بشكل موحد.

كانت هذه القدرات معجزات قبل، لكنها الآن أصبحت بسيطة للغاية. ويمكن استخدام قدرات مماثلة على منصات شركات مثل ServiceNow و Snowflake.

04. نموذج Alpha-Mayo المفتوح “يفكر” في السيارات ذاتية القيادة

تؤمن إنفيديا أن الذكاء الاصطناعي الفيزيائي والروبوتات ستصبح في النهاية أكبر سوق استهلاكي في العالم. وكل شيء يمكنه التحرك، سيصبح مستقل تماماً، يقوده الذكاء الاصطناعي الفيزيائي.

لقد مر الذكاء الاصطناعي بمراحل الإدراك، والتوليد، والوكيل الذكي، وهو الآن يدخل عصر الذكاء الاصطناعي الفيزيائي، حيث يفهم النماذج القوانين الفيزيائية ويولد أفعالاً مباشرة من استشعارات العالم الحقيقي.

لتحقيق هذا الهدف، يجب على الذكاء الاصطناعي الفيزيائي أن يتعلم قواعد العالم الأساسية — استمرارية الأجسام، والجاذبية، والاحتكاك. وستعتمد هذه القدرات على ثلاثة حواسيب: حاسوب التدريب (DGX) لبناء نماذج الذكاء الاصطناعي، وحاسوب الاستدلال (الروبوت/رقاقة السيارة) للتنفيذ في الوقت الحقيقي، وحاسوب المحاكاة (Omniverse) لإنشاء البيانات التركيبية والتحقق من المنطق الفيزيائي.

والموديل الأساسي هو نموذج Cosmos العالمي، الذي يربط بين اللغة، والصور، و3D، والقوانين الفيزيائية، ويدعم سلسلة كاملة من توليد البيانات التدريبية من المحاكاة.

سيظهر الذكاء الاصطناعي الفيزيائي في ثلاثة كيانات: المباني (مثل المصانع والمخازن)، والروبوتات، والسيارات ذاتية القيادة.

يعتقد هوان رونغشون أن القيادة الذاتية ستكون أول تطبيق واسع للذكاء الاصطناعي الفيزيائي. يتطلب هذا النوع من الأنظمة فهم العالم الحقيقي، واتخاذ القرارات، وتنفيذ الأفعال، مع متطلبات عالية جداً من الأمان، والمحاكاة، والبيانات.

ولهذا، أطلقت إنفيديا Alpha-Mayo، وهو نظام متكامل يتكون من نماذج مفتوحة، وأدوات محاكاة، ومجموعات بيانات للذكاء الاصطناعي الفيزيائي، لتسريع تطوير أنظمة آمنة تعتمد على الاستدلال.

وتوفر مجموعة منتجاتها أساساً لبناء أنظمة قيادة ذاتية من المستوى L4 لشركات السيارات العالمية، والموردين، والشركات الناشئة، والباحثين.

يُعد Alpha-Mayo أول نموذج في الصناعة يجعل السيارات ذاتية القيادة “تفكر”، وهو مفتوح المصدر. ويقوم على تفكيك المشكلة إلى خطوات، واستنتاج جميع الاحتمالات، واختيار المسار الأكثر أماناً.

يسمح هذا النموذج القائم على الاستنتاجات والأفعال للأنظمة الذاتية القيادة بحل سيناريوهات معقدة لم يسبق لها مثيل، مثل إشارات المرور المعطلة عند التقاطعات المزدحمة.

يحتوي Alpha-Mayo على 10 مليارات من المعاملات، وهو حجم كافٍ لمعالجة مهام القيادة الذاتية، وفي الوقت نفسه خفيف الوزن بما يكفي للعمل على محطات العمل المخصصة للبحث في القيادة الذاتية.

يمكنه استقبال النص، والكاميرات المحيطية، وحالة السيارة التاريخية، ومدخلات الملاحة، وإخراج مسارات القيادة وعمليات الاستنتاج، مما يساعد الركاب على فهم سبب اتخاذ السيارة لإجراء معين.

وفي الفيديو الترويجي المعروض، يمكن للسيارات ذاتية القيادة التي تعمل بـ Alpha-Mayo أن تتجنب المشاة، وتتوقع السيارات اليسارية، وتغير المسار تلقائياً دون تدخل بشري.

قال هوان رونغشون إن مرسيدس-بنز CLA المزودة بـ Alpha-Mayo دخلت الإنتاج، وتم تصنيفها مؤخراً كأكثر السيارات أماناً في العالم من قبل NCAP. وتم اعتماد كل رمز، ورقاقة، ونظام، من قبل معايير السلامة. وسيتم طرح هذا النظام في السوق الأمريكية، مع إصدار قدرات قيادة متقدمة أكثر في وقت لاحق من هذا العام، بما في ذلك القيادة بدون يد على الطرق السريعة، والقيادة الذاتية الكاملة في البيئة الحضرية.

كما أطلقت إنفيديا مجموعات بيانات جزئية لتدريب Alpha-Mayo، وإطار تقييم النماذج المفتوحة المصدر Alpha-Sim. يمكن للمطورين استخدام بياناتهم الخاصة لضبط Alpha-Mayo، أو استخدام Cosmos لإنشاء بيانات تركيبية، وتدريب واختبار تطبيقات القيادة الذاتية باستخدام مزيج من البيانات الحقيقية والتركيبية. بالإضافة إلى ذلك، أعلنت إنفيديا أن منصة NVIDIA DRIVE أصبحت الآن في الإنتاج.

وأعلنت إنفيديا أن شركات رائدة عالمياً مثل Boston Dynamics، Franka Robotics، روبوتات العمليات الجراحية، LG Electronics، NEURA، XRLabs، وZhiYuan Robotics تعتمد على NVIDIA Isaac و GR00T.

كما أعلنت هوان رونغشون عن تعاون جديد مع Siemens. حيث تقوم Siemens بدمج CUDA-X، ونماذج الذكاء الاصطناعي، وOmniverse من إنفيديا في أدوات ومنصات EDA، وCAE، والنمذجة الرقمية، والنسخ الرقمية. وسيُستخدم الذكاء الاصطناعي الفيزيائي على نطاق واسع في التصميم، والمحاكاة، والإنتاج، والتشغيل.

05. الختام: من جهة، نحتضن المصادر المفتوحة، ومن جهة أخرى، نجعل الأنظمة الصلبة لا غنى عنها

مع تحول البنية التحتية للذكاء الاصطناعي من التدريب إلى الاستدلال على نطاق واسع، تطورت المنافسة على المنصات من مجرد قوة حسابية نقطية إلى أنظمة تشمل الرقائق، والأرفف، والشبكات، والبرمجيات، بهدف تقديم أعلى قدر من الاستدلال بأقل تكلفة إجمالية للملكية (TCO)، ودخول الذكاء الاصطناعي مرحلة “التشغيل المصنع”.

تولي إنفيديا اهتماماً كبيراً بالتصميم على مستوى النظام، حيث حققت Rubin تحسينات في الأداء والكفاءة في التدريب والاستدلال، ويمكن أن تكون بديلاً جاهزاً للتركيب من Blackwell، مع انتقال سلس من Blackwell.

وفي تحديد موقع المنصة، لا تزال إنفيديا ترى أن التدريب مهم جداً، لأنه فقط من خلال تدريب نماذج متقدمة بسرعة، يمكن أن تستفيد منصات الاستدلال بشكل حقيقي، ولهذا أدخلت NVFP4 في وحدات Rubin، لتعزيز الأداء وتقليل TCO.

وفي الوقت نفسه، تواصل الشركة تعزيز قدرات الاتصال الشبكي بشكل كبير عبر التوسع الرأسي والأفقي، وتعتبر السياق عنق الزجاجة الرئيسي، وتعمل على تصميم تعاوني بين التخزين، والشبكة، والحوسبة.

وتواصل إنفيديا، من ناحية، فتح المصادر بشكل واسع، ومن ناحية أخرى، جعل الأجهزة، والربط، وتصميم الأنظمة أكثر “لا غنى عنه”، حيث إن استمرارية الطلب، وتحفيز استهلاك الرموز، ودفع التوسع في الاستدلال، وتوفير بنية تحتية عالية القيمة، كلها حلقات في استراتيجية تبني حصن حصين لشركة إنفيديا.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.52Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.58Kعدد الحائزين:2
    0.14%
  • القيمة السوقية:$3.52Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.52Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.52Kعدد الحائزين:1
    0.00%
  • تثبيت