Интеллидженс Тех, Лас-Вегас, 5 января — только что основатель и CEO NVIDIA Хуан Ренчжун выступил с первой в 2026 году тематической речью на выставке CES 2026. Как обычно, он был в кожаной куртке и за 1,5 часа анонсировал 8 важных релизов — от чипов и стоек до сетевых решений, подробно рассказав о всей новой платформе следующего поколения.
В области ускоренных вычислений и инфраструктуры ИИ NVIDIA представила суперкомпьютер NVIDIA Vera Rubin POD AI, Ethernet-оптические компоненты Spectrum-X с объединенной упаковкой, платформу хранения контекстов для inference, а также NVIDIA DGX SuperPOD на базе DGX Vera Rubin NVL72.
NVIDIA Vera Rubin POD использует 6 собственных чипов NVIDIA, охватывающих CPU, GPU, Scale-up, Scale-out, хранилище и вычислительные возможности. Все компоненты разработаны совместно, чтобы удовлетворить требования передовых моделей и снизить вычислительные затраты.
Vera CPU основан на кастомной архитектуре Olympus, Rubin GPU после внедрения Transformer-двигателя достигает NBFP4-инференционной производительности до 50PFLOPS, пропускная способность NVLink до 3.6TB/с, поддерживает третий уровень общего секретного вычисления (первый уровень TEE на стойке), обеспечивая полную доверенную среду для CPU и GPU.
Все эти чипы уже прошли тестирование, NVIDIA завершила проверку всей системы NVIDIA Vera Rubin NVL72, партнеры начали запускать внутренние AI-модели и алгоритмы, вся экосистема готовится к развертыванию Vera Rubin.
В рамках других анонсов Spectrum-X с объединенной упаковкой оптических компонентов значительно повысил энергоэффективность и время безотказной работы; платформа хранения контекстов для inference переопределяет стек хранения, уменьшая повторные вычисления и повышая эффективность inference; на базе DGX Vera Rubin NVL72 NVIDIA DGX SuperPOD снизила стоимость токенов для крупных MoE-моделей до 1/10.
В области открытых моделей NVIDIA объявила о расширении семейства открытых моделей, выпустила новые модели, датасеты и библиотеки, включая новые Agentic RAG, безопасные модели, голосовые модели, а также полностью новые открытые модели для всех типов роботов. Однако, Хуан Ренчжун не подробно рассказал об этом в речи.
В области физического AI наступило время ChatGPT в физическом AI — полная стековая технология NVIDIA позволяет глобальной экосистеме менять отрасли с помощью роботов на базе AI; широкий набор AI-инструментов NVIDIA, включая новую открытая модельную коллекцию Alpamayo, позволяет транспортной индустрии быстро реализовать безопасное L4-водительство; платформа автоматического вождения NVIDIA DRIVE уже запущена в производство, установлена на все новые Mercedes-Benz CLA для AI-управляемого вождения уровня L2++.
01. Новая AI-суперкомпьютер: 6 собственных чипов, мощность до 3.6EFLOPS на стойке
Хуан Ренчжун считает, что каждые 10–15 лет индустрия вычислений переживает полное обновление, и сейчас происходят два параллельных революционных сдвига — от CPU к GPU, от “программного обеспечения” к “обучающему ПО”, ускоренные вычисления и AI перестраивают весь стек вычислений. За последние десять лет индустрия стоимостью в 10 трлн долларов переживает модернизацию.
Одновременно спрос на вычислительные ресурсы резко вырос. Размер моделей увеличивается в 10 раз ежегодно, количество токенов для размышлений — в 5 раз, а цена за токен ежегодно снижается в 10 раз.
Чтобы справиться с этим, NVIDIA решила ежегодно выпускать новые вычислительные аппаратные средства. Хуан Ренчжун сообщил, что Vera Rubin уже полностью запущена в производство.
Новая AI-суперкомпьютер NVIDIA Vera Rubin POD использует 6 собственных чипов: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 (CX9) — интеллектуальные сетевые карты, BlueField-4 DPU, Spectrum-X 102.4T CPO.
Vera CPU: предназначен для перемещения данных и обработки агентов, содержит 88 кастомных ядер Olympus и 176 потоков NVIDIA, поддерживает 1.8TB/с NVLink-C2C для унифицированной памяти CPU и GPU, системная память достигает 1.5TB (в 3 раза больше, чем у Grace CPU), LPDDR5X память SOCAMM с пропускной способностью 1.2TB/с, поддерживает стойковое секретное вычисление, производительность обработки данных удвоена.
Rubin GPU: внедрил Transformer-двигатель, достигает NVFP4-инференционной производительности до 50PFLOPS — в 5 раз больше Blackwell GPU, совместим с предыдущими поколениями, повышая BF16/FP4-производительность при сохранении точности; тренинговая производительность NVFP4 достигает 35PFLOPS — в 3.5 раза больше Blackwell.
Rubin — первая платформа с поддержкой HBM4, пропускная способность HBM4 достигает 22TB/с, в 2.8 раза больше предыдущего поколения, что обеспечивает необходимую мощность для сложных MoE-моделей и AI-нагрузок.
NVLink 6 Switch: скорость по одной линии увеличена до 400Gbps, использует SerDes-технологию для высокоскоростной передачи сигналов; каждый GPU обеспечивает 3.6TB/с полной межсоединенной пропускной способности, в 2 раза больше предыдущего поколения, суммарная пропускная способность — 28.8TB/с, при FP8 точности in-network вычисления достигают 14.4TFLOPS, поддерживается жидкостное охлаждение.
NVIDIA ConnectX-9 SuperNIC: обеспечивает 1.6Tb/с пропускной способности на GPU, оптимизирован для масштабных AI, полностью программируемый и ускоренный.
NVIDIA BlueField-4: 800Gbps DPU для интеллектуальных сетевых карт и хранилищ, оснащен 64-ядерным процессором Grace, в связке с ConnectX-9 SuperNIC для разгрузки сетевых и хранилищных задач, а также усиления сетевой безопасности, производительность в 6 раз выше предыдущего поколения, пропускная способность памяти — в 3 раза выше, скорость доступа GPU к данным — в 2 раза быстрее.
NVIDIA Vera Rubin NVL72: объединяет все компоненты в единую стойковую систему, содержит 2 трлн транзисторов, NVFP4-инференционная производительность — 3.6EFLOPS, NVFP4-тренинг — 2.5EFLOPS.
Объем памяти LPDDR5X системы — 54TB, в 2.5 раза больше предыдущего поколения; HBM4 — 20.7TB, в 1.5 раза больше; пропускная способность HBM4 — 1.6PB/с, в 2.8 раза больше; общая вертикальная пропускная способность — 260TB/с, превышая глобальный интернет-трафик.
Эта система основана на третьем поколении MGX-стойки, модульный дизайн без хостов, кабелей и вентиляторов, что ускоряет сборку и обслуживание в 18 раз по сравнению с GB200. Время сборки сокращено с 2 часов до примерно 5 минут, а использование жидкостного охлаждения увеличилось с 80% до 100%. Вес системы — около 2 тонн, с водяным охлаждением — до 2.5 тонн.
Тарелки NVLink Switch обеспечивают нулевое время обслуживания и отказоустойчивость, стойка остается работоспособной при удалении или частичной замене. Вторая версия RAS позволяет проводить диагностику без остановки работы.
Эти особенности повышают время работы системы и пропускную способность, снижают затраты на обучение и inference, отвечая требованиям дата-центров к высокой надежности и обслуживаемости.
Более 80 партнеров по MGX уже готовы поддержать развертывание Rubin NVL72 в масштабных сетях.
02. Три новых продукта для революции в AI inference: новые CPO-устройства, новые уровни хранения контекстов, новый DGX SuperPOD
Также NVIDIA представила три важных новинки: Spectrum-X Ethernet с объединенной упаковкой оптических компонентов, платформу хранения контекстов для inference, а также DGX SuperPOD на базе DGX Vera Rubin NVL72.
1. Spectrum-X Ethernet с объединенной упаковкой оптических компонентов
Spectrum-X основан на архитектуре Spectrum-X, использует 2 чипа, 200Gbps SerDes, каждый ASIC обеспечивает 102.4Tb/с пропускной способности.
Коммутатор включает 512-портовую высокоплотную систему и 128-портовую компактную, каждый порт — 800Gb/с.
CPO (объединенная упаковка оптики) повышает энергоэффективность в 5 раз, надежность — в 10 раз, время безотказной работы — в 5 раз.
Это позволяет ежедневно обрабатывать больше токенов, снижая общие затраты на владение (TCO) дата-центра.
2. Платформа хранения контекстов для inference
Платформа — это инфраструктура хранения AI-данных уровня POD для хранения KV Cache, основана на BlueField-4 и Spectrum-X Ethernet, тесно связана с NVIDIA Dynamo и NVLink, обеспечивает совместное управление памятью, хранилищем и сетью.
Обработка контекстов как первоклассных данных позволяет добиться 5-кратного увеличения inference-производительности и эффективности.
Это важно для улучшения многократных диалогов, RAG, многошагового Agentic inference — задач, требующих эффективного хранения, повторного использования и совместного доступа к контекстам.
AI эволюционирует от чат-ботов к Agentic AI, способным делать выводы, вызывать инструменты и поддерживать состояние на длительный срок, с окнами контекста в миллионы токенов. Эти данные хранятся в KV Cache, повторные вычисления — большие задержки и потеря времени GPU, поэтому нужен специальный слой хранения.
Но видеопамять GPU быстра, но ограничена, а традиционные сети хранения слишком медленны для коротких контекстов. Узкое место — в хранении и управлении контекстами inference. Поэтому нужен новый уровень памяти между GPU и хранилищем, оптимизированный под inference.
Этот уровень — не просто патч, а проектируется совместно с сетью хранения, чтобы минимизировать издержки при перемещении данных контекста.
Новый уровень хранения — платформа NVIDIA для хранения контекстов inference, не находится прямо в хост-системе, а подключается через BlueField-4 к вычислительным устройствам. Главное преимущество — возможность более эффективного масштабирования хранилищ, избегая повторных вычислений KV Cache.
NVIDIA тесно сотрудничает с партнерами по хранению, чтобы интегрировать платформу в Rubin, позволяя клиентам использовать ее как часть полной AI-инфраструктуры.
3. DGX SuperPOD на базе Vera Rubin
На системном уровне DGX SuperPOD — это масштабный план развертывания AI-цехов, использующий 8 систем DGX Vera Rubin NVL72, сеть NVLink 6 для вертикального масштабирования, Spectrum-X Ethernet для горизонтального, встроенную платформу хранения контекстов для inference, прошедшую инженерное тестирование.
Вся система управляется софтвером NVIDIA Mission Control, достигая максимальной эффективности. Клиенты могут развернуть ее как готовое решение, выполняя обучение и inference с меньшим количеством GPU.
Благодаря слаженной работе 6 типов чипов, стойки, стойки, Pod, дата-центра и программного обеспечения, платформа Rubin значительно снижает затраты на обучение и inference. В сравнении с Blackwell для обучения таких же MoE-моделей требуется в 4 раза меньше GPU; при одинаковой задержке стоимость токенов крупных MoE-моделей снизилась до 1/10.
Также представлен DGX SuperPOD на базе системы DGX Rubin NVL8.
Используя архитектуру Vera Rubin, NVIDIA вместе с партнерами и клиентами создает крупнейшую, самую передовую и при этом самую дешевую AI-систему в мире, ускоряя массовое внедрение AI.
Инфраструктура Rubin будет доступна вторая половина этого года через CSP и системных интеграторов, Microsoft и другие станут первыми пользователями.
03. Расширение открытой модели: новые модели, датасеты и вклад в open-source экосистему
На уровне программного обеспечения и моделей NVIDIA продолжает активно инвестировать в open-source.
Платформы вроде OpenRouter показывают, что за последний год использование AI-моделей выросло в 20 раз, и около четверти токенов приходится на open-source модели.
В 2025 году NVIDIA — крупнейший вкладчик в open-source модели, датасеты и рецепты на Hugging Face, выпустила 650 открытых моделей и 250 открытых датасетов.
Модели NVIDIA в open-source занимают лидирующие позиции в различных рейтингах. Разработчики могут не только использовать эти модели, но и учиться, дообучать, расширять датасеты, а также строить AI-системы с помощью открытых инструментов и документации.
Вдохновленный Perplexity, Хуан Ренчжун отметил, что агенты должны быть мульти-модельными, мультиоблачными и гибридными — это базовая архитектура Agentic AI, которую используют почти все стартапы.
Благодаря открытым моделям и инструментам NVIDIA разработчики теперь могут кастомизировать AI-системы, используя передовые модели. В настоящее время NVIDIA интегрировала эти рамки в “черпак” и встроила их в SaaS-платформы, позволяя пользователям быстро развертывать решения.
На демонстрационных примерах система способна автоматически определить, должна ли задача обрабатываться локальной приватной моделью или облачной, а также вызывать внешние инструменты (например, API почты, интерфейсы роботов, календари), осуществлять мультимодальную обработку — текст, речь, изображения, сигналы роботов.
Эти сложные возможности раньше казались невозможными, а сегодня — тривиальны. Аналогичные функции доступны на платформах вроде ServiceNow, Snowflake.
04. Открытая модель Alpha-Mayo: “мышление” автономных автомобилей
NVIDIA верит, что физический AI и роботы в конечном итоге станут крупнейшим сегментом потребительской электроники. Все движущиеся объекты в итоге станут полностью автономными, управляемыми физическим AI.
AI прошел стадии восприятия, генерации и Agentic AI, сейчас наступает эпоха физического AI — умные системы, понимающие физические законы и действующие на основе восприятия реального мира.
Для достижения этой цели физический AI должен освоить базовые знания о мире — постоянство объектов, гравитацию, трение. Получение этих знаний потребует трех вычислительных систем: обучающего компьютера (DGX) для создания моделей AI, inference-компьютера (роботы/автопилоты) для реального времени, симуляционного компьютера (Omniverse) для генерации данных и проверки физических логик.
Ключевая модель — Cosmos, базовая модель мира, объединяющая язык, изображения, 3D и физические законы, поддерживающая всю цепочку — от симуляции до генерации обучающих данных.
Физический AI появится в трех типах объектов: здания (заводы, склады), роботы, автономные автомобили.
Хуан Ренчжун считает, что автономное вождение станет первым масштабным применением физического AI. Такие системы должны понимать реальный мир, принимать решения и выполнять действия, предъявляя высокие требования к безопасности, симуляции и данным.
Для этого NVIDIA выпустила Alpha-Mayo — полноценную систему из open-source моделей, симуляторов и физических датасетов, ускоряющую разработку безопасных, основанных на inference систем физического AI.
Ее продуктовая линейка — базовые модули для создания систем автоматического вождения уровня L4 для автопроизводителей, поставщиков, стартапов и исследователей.
Alpha-Mayo — первая в индустрии модель, которая действительно “думает” за рулем, она уже открыта. Модель разбивает задачу на шаги, делает выводы по всем возможностям и выбирает самый безопасный путь.
Эта модель, основанная на логике “вывод — действие”, позволяет системам автономного вождения решать сложные ситуации, ранее недоступные, например, при сбое светофора на оживленных перекрестках.
Alpha-Mayo содержит 10 миллиардов параметров, достаточно для решения задач автономного вождения, при этом легкая по весу, чтобы запускать на рабочих станциях для исследований.
Она принимает текст, панорамные камеры, исторические данные и навигацию, и выводит траекторию движения и объяснение решений, чтобы пассажиры понимали, почему автомобиль выбрал тот или иной маневр.
В демонстрационном ролике под управлением Alpha-Mayo автомобиль самостоятельно избегает пешеходов, предугадывает левый поворот и перестраивается, не требуя вмешательства водителя.
Хуан Ренчжун заявил, что Mercedes-Benz CLA с Alpha-Mayo уже запущена в производство, а также признана самой безопасной машиной в мире по NCAP. Вся кодовая база, чипы и системы прошли сертификацию безопасности. В США система выйдет в этом году, а позже появятся расширенные возможности — автоматическое управление на автомагистралях и полное автономное вождение в городских условиях.
NVIDIA также выпустила часть датасетов для обучения Alpha-Mayo, открытый фреймворк для оценки inference-моделей Alpha-Sim. Разработчики могут дообучать Alpha-Mayo на своих данных или использовать Cosmos для генерации синтетических данных, а затем объединять их с реальными для обучения и тестирования автономных систем. Кроме того, NVIDIA объявила, что платформа NVIDIA DRIVE уже запущена в производство.
NVIDIA сообщает, что ведущие компании по робототехнике — Boston Dynamics, Franka Robotics, хирургические роботы Surgical, LG Electronics, NEURA, XRLabs, ZhiYuan Robotics — используют решения на базе NVIDIA Isaac и GR00T.
Хуан Ренчжун также объявил о новом партнерстве с Siemens. Siemens интегрирует CUDA-X, AI-модели и Omniverse в свои инструменты EDA, CAE и платформы цифровых двойников. Физический AI будет широко применяться на всех этапах — от проектирования и симуляции до производства и эксплуатации.
05. Заключение: слева — открытый исходный код, справа — аппаратное обеспечение, которое невозможно заменить
По мере того как инфраструктура AI смещается от обучения к масштабным inference, конкуренция платформ переходит от отдельной вычислительной мощности к системной инженерии, охватывающей чипы, стойки, сети и софт. Цель — обеспечить максимальную пропускную способность inference при минимальной TCO. AI входит в новую фазу “фабричного” функционирования.
NVIDIA уделяет большое внимание системному дизайну: Vera Rubin одновременно повышает производительность и экономичность при обучении и inference, может служить как plug-and-play замена Blackwell, обеспечивая бесшовный переход.
В стратегическом плане NVIDIA по-прежнему считает обучение ключевым, потому что только быстрое обучение передовых моделей позволяет максимально эффективно использовать inference-платформы. Поэтому в Rubin GPU внедрена NVFP4 для дальнейшего повышения производительности и снижения TCO.
Также, этот гигант AI-вычислений продолжает расширять сетевые возможности как в вертикальной, так и в горизонтальной архитектуре, рассматривая контекст как ключевое узкое место, и реализует совместный дизайн хранения, сети и вычислений.
NVIDIA одновременно активно открывает исходный код и делает аппаратное, межсоединительное и системное решение все более “незаменимым”. Такой стратегический цикл — расширение спроса, стимулирование расхода токенов, масштабирование inference и создание инфраструктуры с высокой ценностью — формирует для NVIDIA непреодолимую защитную стену.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Хуан Сюньцзюнь в течение 1.5 часов объявил 8 новых продуктов, Nvidia всё ставит на AI-вывод и физический AI
作者 | ZeR0 Джунда, Интеллидженс Тех
Редактор | Мохьян
Интеллидженс Тех, Лас-Вегас, 5 января — только что основатель и CEO NVIDIA Хуан Ренчжун выступил с первой в 2026 году тематической речью на выставке CES 2026. Как обычно, он был в кожаной куртке и за 1,5 часа анонсировал 8 важных релизов — от чипов и стоек до сетевых решений, подробно рассказав о всей новой платформе следующего поколения.
В области ускоренных вычислений и инфраструктуры ИИ NVIDIA представила суперкомпьютер NVIDIA Vera Rubin POD AI, Ethernet-оптические компоненты Spectrum-X с объединенной упаковкой, платформу хранения контекстов для inference, а также NVIDIA DGX SuperPOD на базе DGX Vera Rubin NVL72.
NVIDIA Vera Rubin POD использует 6 собственных чипов NVIDIA, охватывающих CPU, GPU, Scale-up, Scale-out, хранилище и вычислительные возможности. Все компоненты разработаны совместно, чтобы удовлетворить требования передовых моделей и снизить вычислительные затраты.
Vera CPU основан на кастомной архитектуре Olympus, Rubin GPU после внедрения Transformer-двигателя достигает NBFP4-инференционной производительности до 50PFLOPS, пропускная способность NVLink до 3.6TB/с, поддерживает третий уровень общего секретного вычисления (первый уровень TEE на стойке), обеспечивая полную доверенную среду для CPU и GPU.
Все эти чипы уже прошли тестирование, NVIDIA завершила проверку всей системы NVIDIA Vera Rubin NVL72, партнеры начали запускать внутренние AI-модели и алгоритмы, вся экосистема готовится к развертыванию Vera Rubin.
В рамках других анонсов Spectrum-X с объединенной упаковкой оптических компонентов значительно повысил энергоэффективность и время безотказной работы; платформа хранения контекстов для inference переопределяет стек хранения, уменьшая повторные вычисления и повышая эффективность inference; на базе DGX Vera Rubin NVL72 NVIDIA DGX SuperPOD снизила стоимость токенов для крупных MoE-моделей до 1/10.
В области открытых моделей NVIDIA объявила о расширении семейства открытых моделей, выпустила новые модели, датасеты и библиотеки, включая новые Agentic RAG, безопасные модели, голосовые модели, а также полностью новые открытые модели для всех типов роботов. Однако, Хуан Ренчжун не подробно рассказал об этом в речи.
В области физического AI наступило время ChatGPT в физическом AI — полная стековая технология NVIDIA позволяет глобальной экосистеме менять отрасли с помощью роботов на базе AI; широкий набор AI-инструментов NVIDIA, включая новую открытая модельную коллекцию Alpamayo, позволяет транспортной индустрии быстро реализовать безопасное L4-водительство; платформа автоматического вождения NVIDIA DRIVE уже запущена в производство, установлена на все новые Mercedes-Benz CLA для AI-управляемого вождения уровня L2++.
01. Новая AI-суперкомпьютер: 6 собственных чипов, мощность до 3.6EFLOPS на стойке
Хуан Ренчжун считает, что каждые 10–15 лет индустрия вычислений переживает полное обновление, и сейчас происходят два параллельных революционных сдвига — от CPU к GPU, от “программного обеспечения” к “обучающему ПО”, ускоренные вычисления и AI перестраивают весь стек вычислений. За последние десять лет индустрия стоимостью в 10 трлн долларов переживает модернизацию.
Одновременно спрос на вычислительные ресурсы резко вырос. Размер моделей увеличивается в 10 раз ежегодно, количество токенов для размышлений — в 5 раз, а цена за токен ежегодно снижается в 10 раз.
Чтобы справиться с этим, NVIDIA решила ежегодно выпускать новые вычислительные аппаратные средства. Хуан Ренчжун сообщил, что Vera Rubin уже полностью запущена в производство.
Новая AI-суперкомпьютер NVIDIA Vera Rubin POD использует 6 собственных чипов: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 (CX9) — интеллектуальные сетевые карты, BlueField-4 DPU, Spectrum-X 102.4T CPO.
Vera CPU: предназначен для перемещения данных и обработки агентов, содержит 88 кастомных ядер Olympus и 176 потоков NVIDIA, поддерживает 1.8TB/с NVLink-C2C для унифицированной памяти CPU и GPU, системная память достигает 1.5TB (в 3 раза больше, чем у Grace CPU), LPDDR5X память SOCAMM с пропускной способностью 1.2TB/с, поддерживает стойковое секретное вычисление, производительность обработки данных удвоена.
Rubin GPU: внедрил Transformer-двигатель, достигает NVFP4-инференционной производительности до 50PFLOPS — в 5 раз больше Blackwell GPU, совместим с предыдущими поколениями, повышая BF16/FP4-производительность при сохранении точности; тренинговая производительность NVFP4 достигает 35PFLOPS — в 3.5 раза больше Blackwell.
Rubin — первая платформа с поддержкой HBM4, пропускная способность HBM4 достигает 22TB/с, в 2.8 раза больше предыдущего поколения, что обеспечивает необходимую мощность для сложных MoE-моделей и AI-нагрузок.
NVLink 6 Switch: скорость по одной линии увеличена до 400Gbps, использует SerDes-технологию для высокоскоростной передачи сигналов; каждый GPU обеспечивает 3.6TB/с полной межсоединенной пропускной способности, в 2 раза больше предыдущего поколения, суммарная пропускная способность — 28.8TB/с, при FP8 точности in-network вычисления достигают 14.4TFLOPS, поддерживается жидкостное охлаждение.
NVIDIA ConnectX-9 SuperNIC: обеспечивает 1.6Tb/с пропускной способности на GPU, оптимизирован для масштабных AI, полностью программируемый и ускоренный.
NVIDIA BlueField-4: 800Gbps DPU для интеллектуальных сетевых карт и хранилищ, оснащен 64-ядерным процессором Grace, в связке с ConnectX-9 SuperNIC для разгрузки сетевых и хранилищных задач, а также усиления сетевой безопасности, производительность в 6 раз выше предыдущего поколения, пропускная способность памяти — в 3 раза выше, скорость доступа GPU к данным — в 2 раза быстрее.
NVIDIA Vera Rubin NVL72: объединяет все компоненты в единую стойковую систему, содержит 2 трлн транзисторов, NVFP4-инференционная производительность — 3.6EFLOPS, NVFP4-тренинг — 2.5EFLOPS.
Объем памяти LPDDR5X системы — 54TB, в 2.5 раза больше предыдущего поколения; HBM4 — 20.7TB, в 1.5 раза больше; пропускная способность HBM4 — 1.6PB/с, в 2.8 раза больше; общая вертикальная пропускная способность — 260TB/с, превышая глобальный интернет-трафик.
Эта система основана на третьем поколении MGX-стойки, модульный дизайн без хостов, кабелей и вентиляторов, что ускоряет сборку и обслуживание в 18 раз по сравнению с GB200. Время сборки сокращено с 2 часов до примерно 5 минут, а использование жидкостного охлаждения увеличилось с 80% до 100%. Вес системы — около 2 тонн, с водяным охлаждением — до 2.5 тонн.
Тарелки NVLink Switch обеспечивают нулевое время обслуживания и отказоустойчивость, стойка остается работоспособной при удалении или частичной замене. Вторая версия RAS позволяет проводить диагностику без остановки работы.
Эти особенности повышают время работы системы и пропускную способность, снижают затраты на обучение и inference, отвечая требованиям дата-центров к высокой надежности и обслуживаемости.
Более 80 партнеров по MGX уже готовы поддержать развертывание Rubin NVL72 в масштабных сетях.
02. Три новых продукта для революции в AI inference: новые CPO-устройства, новые уровни хранения контекстов, новый DGX SuperPOD
Также NVIDIA представила три важных новинки: Spectrum-X Ethernet с объединенной упаковкой оптических компонентов, платформу хранения контекстов для inference, а также DGX SuperPOD на базе DGX Vera Rubin NVL72.
1. Spectrum-X Ethernet с объединенной упаковкой оптических компонентов
Spectrum-X основан на архитектуре Spectrum-X, использует 2 чипа, 200Gbps SerDes, каждый ASIC обеспечивает 102.4Tb/с пропускной способности.
Коммутатор включает 512-портовую высокоплотную систему и 128-портовую компактную, каждый порт — 800Gb/с.
CPO (объединенная упаковка оптики) повышает энергоэффективность в 5 раз, надежность — в 10 раз, время безотказной работы — в 5 раз.
Это позволяет ежедневно обрабатывать больше токенов, снижая общие затраты на владение (TCO) дата-центра.
2. Платформа хранения контекстов для inference
Платформа — это инфраструктура хранения AI-данных уровня POD для хранения KV Cache, основана на BlueField-4 и Spectrum-X Ethernet, тесно связана с NVIDIA Dynamo и NVLink, обеспечивает совместное управление памятью, хранилищем и сетью.
Обработка контекстов как первоклассных данных позволяет добиться 5-кратного увеличения inference-производительности и эффективности.
Это важно для улучшения многократных диалогов, RAG, многошагового Agentic inference — задач, требующих эффективного хранения, повторного использования и совместного доступа к контекстам.
AI эволюционирует от чат-ботов к Agentic AI, способным делать выводы, вызывать инструменты и поддерживать состояние на длительный срок, с окнами контекста в миллионы токенов. Эти данные хранятся в KV Cache, повторные вычисления — большие задержки и потеря времени GPU, поэтому нужен специальный слой хранения.
Но видеопамять GPU быстра, но ограничена, а традиционные сети хранения слишком медленны для коротких контекстов. Узкое место — в хранении и управлении контекстами inference. Поэтому нужен новый уровень памяти между GPU и хранилищем, оптимизированный под inference.
Этот уровень — не просто патч, а проектируется совместно с сетью хранения, чтобы минимизировать издержки при перемещении данных контекста.
Новый уровень хранения — платформа NVIDIA для хранения контекстов inference, не находится прямо в хост-системе, а подключается через BlueField-4 к вычислительным устройствам. Главное преимущество — возможность более эффективного масштабирования хранилищ, избегая повторных вычислений KV Cache.
NVIDIA тесно сотрудничает с партнерами по хранению, чтобы интегрировать платформу в Rubin, позволяя клиентам использовать ее как часть полной AI-инфраструктуры.
3. DGX SuperPOD на базе Vera Rubin
На системном уровне DGX SuperPOD — это масштабный план развертывания AI-цехов, использующий 8 систем DGX Vera Rubin NVL72, сеть NVLink 6 для вертикального масштабирования, Spectrum-X Ethernet для горизонтального, встроенную платформу хранения контекстов для inference, прошедшую инженерное тестирование.
Вся система управляется софтвером NVIDIA Mission Control, достигая максимальной эффективности. Клиенты могут развернуть ее как готовое решение, выполняя обучение и inference с меньшим количеством GPU.
Благодаря слаженной работе 6 типов чипов, стойки, стойки, Pod, дата-центра и программного обеспечения, платформа Rubin значительно снижает затраты на обучение и inference. В сравнении с Blackwell для обучения таких же MoE-моделей требуется в 4 раза меньше GPU; при одинаковой задержке стоимость токенов крупных MoE-моделей снизилась до 1/10.
Также представлен DGX SuperPOD на базе системы DGX Rubin NVL8.
Используя архитектуру Vera Rubin, NVIDIA вместе с партнерами и клиентами создает крупнейшую, самую передовую и при этом самую дешевую AI-систему в мире, ускоряя массовое внедрение AI.
Инфраструктура Rubin будет доступна вторая половина этого года через CSP и системных интеграторов, Microsoft и другие станут первыми пользователями.
03. Расширение открытой модели: новые модели, датасеты и вклад в open-source экосистему
На уровне программного обеспечения и моделей NVIDIA продолжает активно инвестировать в open-source.
Платформы вроде OpenRouter показывают, что за последний год использование AI-моделей выросло в 20 раз, и около четверти токенов приходится на open-source модели.
В 2025 году NVIDIA — крупнейший вкладчик в open-source модели, датасеты и рецепты на Hugging Face, выпустила 650 открытых моделей и 250 открытых датасетов.
Модели NVIDIA в open-source занимают лидирующие позиции в различных рейтингах. Разработчики могут не только использовать эти модели, но и учиться, дообучать, расширять датасеты, а также строить AI-системы с помощью открытых инструментов и документации.
Вдохновленный Perplexity, Хуан Ренчжун отметил, что агенты должны быть мульти-модельными, мультиоблачными и гибридными — это базовая архитектура Agentic AI, которую используют почти все стартапы.
Благодаря открытым моделям и инструментам NVIDIA разработчики теперь могут кастомизировать AI-системы, используя передовые модели. В настоящее время NVIDIA интегрировала эти рамки в “черпак” и встроила их в SaaS-платформы, позволяя пользователям быстро развертывать решения.
На демонстрационных примерах система способна автоматически определить, должна ли задача обрабатываться локальной приватной моделью или облачной, а также вызывать внешние инструменты (например, API почты, интерфейсы роботов, календари), осуществлять мультимодальную обработку — текст, речь, изображения, сигналы роботов.
Эти сложные возможности раньше казались невозможными, а сегодня — тривиальны. Аналогичные функции доступны на платформах вроде ServiceNow, Snowflake.
04. Открытая модель Alpha-Mayo: “мышление” автономных автомобилей
NVIDIA верит, что физический AI и роботы в конечном итоге станут крупнейшим сегментом потребительской электроники. Все движущиеся объекты в итоге станут полностью автономными, управляемыми физическим AI.
AI прошел стадии восприятия, генерации и Agentic AI, сейчас наступает эпоха физического AI — умные системы, понимающие физические законы и действующие на основе восприятия реального мира.
Для достижения этой цели физический AI должен освоить базовые знания о мире — постоянство объектов, гравитацию, трение. Получение этих знаний потребует трех вычислительных систем: обучающего компьютера (DGX) для создания моделей AI, inference-компьютера (роботы/автопилоты) для реального времени, симуляционного компьютера (Omniverse) для генерации данных и проверки физических логик.
Ключевая модель — Cosmos, базовая модель мира, объединяющая язык, изображения, 3D и физические законы, поддерживающая всю цепочку — от симуляции до генерации обучающих данных.
Физический AI появится в трех типах объектов: здания (заводы, склады), роботы, автономные автомобили.
Хуан Ренчжун считает, что автономное вождение станет первым масштабным применением физического AI. Такие системы должны понимать реальный мир, принимать решения и выполнять действия, предъявляя высокие требования к безопасности, симуляции и данным.
Для этого NVIDIA выпустила Alpha-Mayo — полноценную систему из open-source моделей, симуляторов и физических датасетов, ускоряющую разработку безопасных, основанных на inference систем физического AI.
Ее продуктовая линейка — базовые модули для создания систем автоматического вождения уровня L4 для автопроизводителей, поставщиков, стартапов и исследователей.
Alpha-Mayo — первая в индустрии модель, которая действительно “думает” за рулем, она уже открыта. Модель разбивает задачу на шаги, делает выводы по всем возможностям и выбирает самый безопасный путь.
Эта модель, основанная на логике “вывод — действие”, позволяет системам автономного вождения решать сложные ситуации, ранее недоступные, например, при сбое светофора на оживленных перекрестках.
Alpha-Mayo содержит 10 миллиардов параметров, достаточно для решения задач автономного вождения, при этом легкая по весу, чтобы запускать на рабочих станциях для исследований.
Она принимает текст, панорамные камеры, исторические данные и навигацию, и выводит траекторию движения и объяснение решений, чтобы пассажиры понимали, почему автомобиль выбрал тот или иной маневр.
В демонстрационном ролике под управлением Alpha-Mayo автомобиль самостоятельно избегает пешеходов, предугадывает левый поворот и перестраивается, не требуя вмешательства водителя.
Хуан Ренчжун заявил, что Mercedes-Benz CLA с Alpha-Mayo уже запущена в производство, а также признана самой безопасной машиной в мире по NCAP. Вся кодовая база, чипы и системы прошли сертификацию безопасности. В США система выйдет в этом году, а позже появятся расширенные возможности — автоматическое управление на автомагистралях и полное автономное вождение в городских условиях.
NVIDIA также выпустила часть датасетов для обучения Alpha-Mayo, открытый фреймворк для оценки inference-моделей Alpha-Sim. Разработчики могут дообучать Alpha-Mayo на своих данных или использовать Cosmos для генерации синтетических данных, а затем объединять их с реальными для обучения и тестирования автономных систем. Кроме того, NVIDIA объявила, что платформа NVIDIA DRIVE уже запущена в производство.
NVIDIA сообщает, что ведущие компании по робототехнике — Boston Dynamics, Franka Robotics, хирургические роботы Surgical, LG Electronics, NEURA, XRLabs, ZhiYuan Robotics — используют решения на базе NVIDIA Isaac и GR00T.
Хуан Ренчжун также объявил о новом партнерстве с Siemens. Siemens интегрирует CUDA-X, AI-модели и Omniverse в свои инструменты EDA, CAE и платформы цифровых двойников. Физический AI будет широко применяться на всех этапах — от проектирования и симуляции до производства и эксплуатации.
05. Заключение: слева — открытый исходный код, справа — аппаратное обеспечение, которое невозможно заменить
По мере того как инфраструктура AI смещается от обучения к масштабным inference, конкуренция платформ переходит от отдельной вычислительной мощности к системной инженерии, охватывающей чипы, стойки, сети и софт. Цель — обеспечить максимальную пропускную способность inference при минимальной TCO. AI входит в новую фазу “фабричного” функционирования.
NVIDIA уделяет большое внимание системному дизайну: Vera Rubin одновременно повышает производительность и экономичность при обучении и inference, может служить как plug-and-play замена Blackwell, обеспечивая бесшовный переход.
В стратегическом плане NVIDIA по-прежнему считает обучение ключевым, потому что только быстрое обучение передовых моделей позволяет максимально эффективно использовать inference-платформы. Поэтому в Rubin GPU внедрена NVFP4 для дальнейшего повышения производительности и снижения TCO.
Также, этот гигант AI-вычислений продолжает расширять сетевые возможности как в вертикальной, так и в горизонтальной архитектуре, рассматривая контекст как ключевое узкое место, и реализует совместный дизайн хранения, сети и вычислений.
NVIDIA одновременно активно открывает исходный код и делает аппаратное, межсоединительное и системное решение все более “незаменимым”. Такой стратегический цикл — расширение спроса, стимулирование расхода токенов, масштабирование inference и создание инфраструктуры с высокой ценностью — формирует для NVIDIA непреодолимую защитную стену.