エヌビディアほど「次世代AI計算」を理解している企業はない

出典:ギークパーク

執筆者:徐珊

「私はこれがテクノロジーの盛宴であると確信しています。今日ここにいる皆さんは、NVIDIAのエコシステムを代表しています。」2026年のGTC開幕式で、いつも黒い革ジャンを着ている男—黄仁勋は、自信に満ちた彼のトレードマークの笑みとともに登壇した。

例年のオープニングとは異なり、今年はCUDAエコシステム20周年を迎える。冒頭で、黄はNVIDIAがGeforceからレイトレーシング、そしてAIインテリジェンスへと一歩一歩自社の堀を築いてきた経緯を語った。「今やCUDAエコシステムはデータのフライホイールを形成しています。」彼の話によると、彼自身が築き上げたCUDAエコシステムはすでに巨大なビジネス帝国となっている。

この発表会で、黄はAIエージェント向けに設計されたVera Rubinを披露した。計算能力は3.6エクサフロップスに達し、最新のラックと組み合わせることで、1メガワットあたりの演算スループットは35倍向上した。さらに、超高シングルスレッド性能を持つCPU—Vera CPUも発表された。

さらに重要なことに、NVIDIAは企業向けのOpenClawリファレンスソリューション、NemoClawも公開した。これを直接ダウンロードし、使用し、二次開発も可能で、世界中のSaaS企業と連携させることができる。これに比べて、今年のNVIDIAの基調講演ではロボット、自動運転、量子コンピューティングへの注力度はやや控えめだった。

この講演を見終わると、私たちは新たな計算プラットフォームの変革の始まりを予感させられる。GoogleやAmazonといった前回の変革の産物と同様に、今回のAI大爆発の中で、世界を変える「AI巨頭」たちが誕生しつつある。

黄は各段階で手に持つ長い企業リストを示し、それが彼の自信の源だと語る。彼は単に計算を定義しているだけでなく、AIという支点を利用し、世界の金融、医療、製造、小売をGPU支配の「AI時代」へと強引に引き込もうとしている。

再び、NVIDIAはAIの未来を見通しており、今や世界中を巻き込んで一緒に跳び込もうとしている。


01 Vera Rubin:7つの革新的なチップ、5つのラック規模システム、1台のスーパーコンピュータ

「わずか10年で、計算能力は4千万倍に飛躍した。」NVIDIAは過去10年間の計算能力の急激な成長を振り返り、事前学習、微調整、推論の全段階で進化を遂げ、今や汎用インテリジェンスシステムへと進化している。計算需要は指数関数的に増加し続けている。

AIエージェント時代に突入し、NVIDIAはVera Rubinを発表した。これはAIインテリジェンスの全ライフサイクルを設計し、チップレベルからAIインテリジェントのために必要なCPU、ストレージ、ネットワーク、安全性を再定義した。

パラメータ情報では、Vera RubinはNVLink 6を搭載し、システム全体の計算能力は3.6エクサフロップスに達し、AIエージェント時代を牽引する重要なエンジンとなる。さらに、前世代と比較して、Vera Rubinシステムは100%液冷化され、従来のケーブルはすべて排除された。

全体構成として、現在のVera CPUラックは編成と汎用ワークロード向けに設計されている。一方、STXラックはBlueField-4を基盤としたAIネイティブストレージを備え、Spectrum-6の光学技術を用いて横方向の拡張を実現し、エネルギー効率と信頼性を大幅に向上させている。

また、Groq 3 LPXラックはVera Rubinと深く連携し、230MBのオンチップSRAMを集積したGroq LPUを搭載し、Vera Rubinの計算速度をさらに向上させている。

これらのシステムを総合すると、1メガワットあたりの演算スループットは35倍向上した。疑いなく、Vera Rubinプラットフォームは7つのチップと5つのラック規模のコンピュータを用いて、汎用インテリジェンスに向けた革命的なAIスーパーコンピュータを構築している。

製品設計思想を語る際、黄は大規模言語モデルはますます巨大化し、生成されるトークン数も増え、速度も向上すると述べた。これにより、より高速な思考が可能になる。しかし同時に、頻繁にメモリにアクセスする必要があり、KVキャッシュや構造化データQDF、非構造化データQVSなどへの負荷が非常に高くなるため、ストレージシステムに対しても極めて高い要求が課される。したがって、AI時代のストレージシステムは再設計が必要となる。

エージェンティック時代には、AIはさまざまなツールを使用し、ウェブブラウザや仮想PCのツール速度も非常に高く求められる。これらのPCや計算ノードはより高速でなければならない。NVIDIAは新たなCPU、Vera CPUを開発し、極めて高いシングルスレッド性能と高いデータ出力能力、強力なデータ処理効率を備え、エネルギー効率も良好だ。これはLPDFR5Xを採用した世界唯一のデータセンター向けCPUであり、シングルスレッド性能とワットあたり性能のコストパフォーマンスを最大化している。

Vera Rubinシリーズ|出典:NVIDIA

「このCPUは、全体のラックと連携し、インテリジェントエージェントの処理タスクを支えるために作られました。この製品はすでに量産段階に入っています。私たちは単独で販売するつもりはなかったのですが、今や独立したCPUの販売も非常に好調です。これは数十億ドル規模の事業になるでしょう。私たちのCPUアーキテクチャチームには非常に満足しています。」と黄は語った。

また、黄は現場でRubin Ultraも披露した。従来のRubinの水平挿入方式とは異なり、Rubin Ultraは新しいGroqラックを垂直に挿入する方式を採用している。「このGroqラックは非常に重く、持ち上げられないので、試すのはやめておきます。」

Groqラック|出典:NVIDIA

背面の中板では、従来の銅線ケーブルは使われていない。彼は、銅線には伝送距離の制約があると考え、新たなシステムで144個のGPUを接続している。これが新世代のNVLinkだ。垂直に設置され、背面の中板に接続される。前面は計算、背面はNVLinkスイッチで、巨大なコンピュータとなる。

最後に、これら新しいチップアーキテクチャがもたらす実質的な利益はどれほどかと問われ、黄は、最終的にチップはトークンの市場ポジショニングと価格に影響を与えると述べた。

「トークンは新しい大宗商品です。すべての商品と同じように、転換点を越え成熟すれば、階層化されるでしょう。」と未来のトークンについていくつかの分類を示した。

高スループット・低速度のバージョンは無料プランに適し、

中間プランはモデルが大きく、速度も速く、入力のコンテキスト長も長い。

将来的には、超高速度のトークン生成をサポートするハイエンドのフラッグシッププランも登場し、1百万トークンあたり150ドルも十分に妥当となる。

「モデルが大きくなるほど、知能は高まり、入力トークンのコンテキストも長くなるほど結果はより正確で関連性が高まる。速度も速くなることで、思考と反復がより充実し、AIはより賢くなる。モデルがよりインテリジェントになるほど、価格も上昇します。例えば45ドルのクラスも可能です。」と彼は未来のトークン消費がすべてを変えると考えている。

彼の想定では、研究者が1日に5千万トークンを使用し、1百万あたり150ドルと計算した場合、研究チームにとっては十分に受け入れられる範囲だ。「これがAIの未来です。」と彼は語る。顧客の視点から、すべての計算リソースを再配分し、25%の電力を無料プランに、25%を中間プランに、25%を高級プランに、残りの25%をプレミアムプランに割り当てると想定している。データセンターの総電力が1ギガワットなら、顧客はこれらのリソース配分を決められる。無料プランはより多くのユーザーを惹きつけ、高級プランは最も価値のある顧客にサービスを提供する。これらの組み合わせが最終的に収益を決定する。

このシンプルなモデルに基づき、彼はBlackwellプラットフォームを採用すればHopperより5倍の収益増が見込めると述べ、Vera RubinはBlackwellよりもさらに5倍の収益向上をもたらすとした。

Vera Rubin|出典:NVIDIA

Groqの計算システムは決定性のデータフロープロセッサであり、静的コンパイルとコンパイラによるスケジューリングアーキテクチャを採用している。つまり、データの伝送タイミングや計算の実行タイミング、同期方法などはすべて事前にソフトウェアによって静的に計画されており、動的スケジューリングは行われない。このアーキテクチャは大容量のHBMを備え、推論の単一ワークロードに特化している。

現在、Groq 3 LPUは量産段階に入り、今年の第3四半期頃から出荷開始予定だ。製品名はGroq LP。

Vera Rubinについては、以前のGrace Blackwellの初期サンプルの調整が非常に複雑で、72路の相互接続をシミュレートする必要があったが、Vera Rubinのサンプルはすでにテストを終え、最初のVera RubinラックもMicrosoft Azure上で稼働している。

現段階では、NVIDIAはVera RubinラックとGB300ラックの全量産を進めており、毎週数千台のシステムを生産できるサプライチェーンを構築している。

次世代のチッププラットフォームのアーキテクチャ名はFeynmanアーキテクチャだ。

さらに、GroqとVera Rubinは、NVIDIAのAI工場の中核をなす重要な構成要素となる。

Groqのチップはわずか500MBのストレージ容量しか持たない一方、Rubin GPUのチップは288GBのHBM4メモリを搭載している。

1兆パラメータのモデルは、すべてのパラメータをGroqチップに格納する必要があり、多数のチップが必要となる。しかし、それをVera Rubinの隣に置けば、AIGCシステムに必要な膨大なKVキャッシュをVera Rubin上に格納できる。

したがって、NVIDIAはAI推論のリソース配分を再構築し、最適な作業を最適なチップに割り当てる。

黄は、モデル内のデコード部分のAttentionはVera Rubinで処理し、デコードのトークン生成はGroqチップで行うと想定している。

特殊なイーサネットモードで密に連結することで、これら2つのチップセットの遅延はほぼ半減する。NVIDIAのDynamoソフトウェアによるスケジューリングと統合により、Vera RubinとGroq LPUの連携は推論性能を35倍向上させた。


02 NemoClaw:AIOSの商用参考例

「OpenClawは人類史上最も人気のあるオープンソースプロジェクトであり、わずか数週間でこの成果を達成しました。その開発速度は、かつてのLinuxを超えています。」黄仁勋は述べた。OpenClawは、あらゆるモダリティと対話でき、理解し、メッセージやメールを送ることもできる。完全なIO能力を備えている。

「OpenClawはインテリジェントエージェントのOSをオープンソース化しました。これは、かつてWindowsが個人コンピュータを創造したのと同じように、今やOpenClawが私たちに個人インテリジェントエージェントを創造させてくれるのです。」

黄は、すべての企業、ソフトウェア企業、テック企業のCEOにとって最も重要な問いは、「あなたのOpenClaw戦略は何か?」だと語る。

「私たちがLinux戦略、HTTP・HTML戦略を必要としたように—それがインターネット時代を切り開いた。Kubernetes戦略も同様に、モバイルクラウド時代を築いた。今や、すべての企業はOpenClaw戦略、すなわちインテリジェントエージェントシステム戦略を持つ必要があります。これが新世代のコンピュータです。」

彼は、今後の企業の働き方や人々の働き方、さらには給与支払いの方式も変わると予測している。

OpenClaw以前の企業ITは「データセンター」だった。大きな部屋やビルに保存されたデータやファイル、構造化された企業データを扱うものであった。データはツール付きのソフトウェアや記録システム、ITに固有のワークフローを経て、人間やデジタルワーカーのためのツールへと変換されていた。旧IT産業では、ソフトウェア企業がツールを作り、ファイルを保存し、ITコンサルタントが企業にツールの使用や統合を支援していた。

未来の企業構造|出典:NVIDIA

しかし、OpenClaw時代やインテリジェントエージェント時代の後は、すべてのIT企業、すべての企業、すべてのSaaS企業が「インテリジェントエージェントサービス企業」(Agent-as-a-Service、AAS企業)へと変貌を遂げる。

ただし、その一歩先には重要な課題が残っている。企業ネットワーク内のインテリジェントエージェントは、機密情報にアクセスし、コードを実行し、外部と通信できる。これにより、従業員情報やサプライチェーンデータ、財務情報などの敏感な情報を取得し、外部に送信するリスクがある。

そこで、NVIDIAは自社のNVIDIA OpenClawリファレンスソリューション「Open NemoClaw」を発表した。

NemoClaw|出典:NVIDIA

これは、完全なインテリジェントエージェントAIツールセットを内蔵し、その中核技術の一つがOpenShellモジュールで、すでにOpenClawに統合されている。ユーザーは直接ダウンロードし、使用し、二次開発も可能で、世界中のSaaS企業の戦略エンジンと連携できる。

また、これらの戦略エンジンと連携し、安全ポリシーの実行やネットワークのバリケード設定、プライバシールーティングを行い、企業内部環境を保護しながらインテリジェントエージェントを安全に運用できる。Open NemoClawは、ユーザーが自分専用のモデルを使ったカスタムインテリジェントエージェントの構築もサポートしている。

NemoClawを搭載したNVIDIAモデルは、類似のOpenClaw製品ランキングで|出典:NVIDIA

彼は、シリコンバレーの採用手法の一つは、「この仕事にはどれだけのトークン枠が付いているか?」になるだろうと予測している。

その時、従業員の基本年収は数十万ドルとなる一方、企業はそれに加えて半分の報酬をトークン形式で支給し、彼らの生産性を10倍に拡大させる。

未来のすべてのソフトウェア企業は、インテリジェントエージェント駆動型となる。彼らはトークンの生産者、使用者、そしてすべての顧客に対してトークンを提供する供給者となる。


03 物理AI:BYD、吉利がNVIDIA Robotaxiの仲間入り、ディズニーのスノーボールが登場

アプリケーション層の変化について語った後、黄仁勋は物理AIの方向に話を移し、その家族とともに登場した。

NVIDIAの物理AIの全体像|出典:NVIDIA

現在、NVIDIAは訓練用コンピュータ、合成データ生成・シミュレーション用コンピュータ、車載のロボット本体用コンピュータの3種類を展開している。

また、多数の新しいパートナーも発表した。「自動運転のChatGPTの時代が到来しています。今や、車は完全な自動運転を実現できると確信しています。」と黄は語った。

NVIDIAは自動運転タクシー(Robotaxi)プラットフォームに、新たにBYD、現代、日産、吉利の4社を加えた。これらのメーカーは年間1800万台の車を生産している。既にメルセデス、トヨタ、ゼネラルモーターズなどもパートナーに加わっており、今後はRobotaxi対応車の数は非常に多くなる見込みだ。NVIDIAはこれらの車両を複数都市の運営ネットワークに接続する計画も発表した。

将来的には、従来の無線塔はNVIDIAのAerial AI RIMスマート基地局に変わる。これが「Robotaxi無線塔」になるのだ。交通状況を理解し、ビームフォーミングをスマートに調整し、最大の忠実度を保ちながらエネルギーも節約できる。

また、NVIDIAのAlpamayoを活用し、車両は推論能力を備え、さまざまなシナリオで安全かつスマートに走行できる。車両は自らの意思決定過程を説明し、音声指示に直接従うことも可能だ。

例として、「メルセデスさん、もう少し速く走れますか?」と声をかけると、車は「もちろんです、今すぐ加速します」と応答する。従来のシミュレーションとニューラルシミュレーションを組み合わせて、大量の合成データを生成し、大規模な戦略モデルの訓練を行っている。

今回、NVIDIAは複数のオープンソースツールも開発した。Isaac Lab:シミュレーション内でロボットを訓練・評価するためのツール。Newton:拡張性のあるGPU高速微分物理シミュレーションエンジン。Cosmos:神経シミュレーション用の世界モデル。GR00T:ロボット推論と動作生成のためのオープンソースロボット基盤モデル。

テーマ講演の最後には、ディズニーの映画『アナと雪の女王』の雪だるまキャラクター、スノーボールのロボットが舞台に登場し、現在ディズニーのロボットはNVIDIAのシミュレーションで訓練されていると紹介された。「私が最も期待しているロボットの一つは、ディズニーのロボットです。」と黄は語った。

黄仁勋とスノーボールがGTCで手を振って別れを告げる|出典:NVIDIA

今年、黄仁勋がGTCで示したのは、単なる方向性やスローガンではなく、現状のAIスタートアップにとってすぐに使えるツール群だった。

AIチップ、OpenClawインテリジェントエージェント体系、物理AI、ロボット、自動運転の大規模展開まで、今後数年間のAI産業の進むべき道、最も難しい課題、最も痛いボトルネックを一つ一つ示した。すべての企業、すべての開発者がこの新しい枠組みの中で自分の位置を見つけられる。

今年から、AIはもはやパラメータの積み上げや演算力の競争、ストーリーテリングの段階を超え、企業や実地に向かう時代になる。これは特定の企業の勝利ではなく、AIのフライホイールが本格的に回り始めた証拠だ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン