挑戦するNVIDIAのAIソフトウェアの覇権!Modularがハードウェア統合型AIプラットフォームを構築し、CUDAに対抗する

robot
概要作成中

生成型AIが世界中を席巻しているこの瞬間、ほぼすべてのLLM、クラウドサービス、AIスタートアップは、同じ一連の重要なインフラに依存しています。それはNVIDIAのCUDAソフトウェアエコシステムです。このもともとグラフィックカードのために作られたプログラムアーキテクチャは、過去20年近くにわたり、AI産業の実際の運用における「隠れたオペレーティングシステム」へと徐々に拡大してきました。

2022 年に設立されたスタートアップの Modular は、この高度に集中した、単一のサプライヤーが支配する構造に正面から挑戦しようとしています。Modular の目標は新しいチップを作ることではなく、AI モデルが異なる GPU やアクセラレーター間で自由に移動できる「ポータブル AI ソフトウェアスタックプラットフォーム」を構築することです。もはや NVIDIA と CUDA のエコシステムに固定されることはありません。

2022年の創業起点、底層エンジニアがCUDAコアに直闘する

Modularは、AppleとGoogleの2人の基盤ソフトウェアエンジニアによって2022年に設立されました。CEOのChris LattnerはSwiftとLLVMコンパイラシステムを構築し、共同創設者のTim DavisはGoogle TPUの重要なソフトウェアアーキテクチャに関与しました。

二人は新しいハードウェアが「ソフトウェアで市場を開く」過程を直接経験したため、大手テクノロジー企業を離れ、CUDAが代表するAIソフトウェアの独占に直接挑戦することを選びました。この非対称な戦争は業界から見るとほぼ狂気の沙汰ですが、システムの底層を十分に理解しているため、少数の挑戦できるチームとして見なされています。

CUDAは取って代わることが難しく、AI産業の構造的な束縛

CUDAはもともとグラフィックカードをプログラム可能にするためのツールでしたが、深層学習の台頭とともに、言語、ライブラリ、コンパイラ、推論エンジンを含む完全なエコシステムへと徐々に拡張されました。

ほとんどのAIチームにとって、NVIDIAのGPUを使用する限り、CUDAを避けることはほぼ不可能です。市場にはAMDのGPU、TPU、またはクラウドプロバイダーの自社開発チップがありますが、各ハードウェアの背後には専用ソフトウェアが結びついており、開発者は自然に最も成熟し、ツールが最も充実したCUDAを選ぶ傾向があり、高度にロックされた産業構造が形成されています。

誘因のないエンジニアリングは、逆に突破口となる。

Lattnerは、クロスチップ、クロスベンダーのポータブルAIソフトウェアが重要でないわけではなく、「誰もコストを負担する十分なインセンティブを持っていない」と指摘しています。このようなプロジェクトは非常に難易度が高く、回収期間が長いため、短期的にはほとんど商業的成果が見えませんが、業界全体が切望している能力です。

この矛盾が、Modularに生成的AIの爆発前に基盤システムの長期開発に早めに投資することを選ばせ、設立後の最初の3年間は意図的に市場の注目を避けることを選ばせた。

三年間の地道な努力、資金とチームが徐々に整ってきた

2025年までに、Modularは約3.8億ドルの資金を累積しており、投資家には多くのシリコンバレーの一流VCが含まれています。2025年9月に最新の資金調達ラウンドを完了した後、会社の評価額は約16億ドルです。

これらのリソースにより、Modular は Google や Apple の経験豊富なエンジニアを採用し、コンパイラ、システムソフトウェア、および AI インフラストラクチャに特化したチームを編成し、完全なソフトウェアスタックを継続的に磨き上げることができます。

三層ソフトウェアアーキテクチャ、言語から計算力クラスターまで

Modularの技術コアは三つの層で構成されており、それぞれは:

最上層:Mammothを使用して、企業が複数のGPUおよび複数のベンダー環境で計算力のスケジューリングと管理を行い、実際の展開と運用の問題を解決します。

中間層:MAX推論エンジンであり、モデルの実行を担当し、NVIDIA、AMD、Apple Siliconをサポートしています。

最下層:Mojo プログラミング言語で、構文は Python に近く、パフォーマンスは C++ に近い。主流の AI フレームワークと統合できます。

2025 キー検証、ユニファイド コンピューティング レイヤーが正式に形成される

2025年9月、Modularは重要なテスト結果を発表しました。同一のソフトウェアプラットフォームで、NVIDIAのBlackwell B200とAMDのMI355Xを同時に駆動し、トップクラスの性能を達成しました。その中でMI355Xの性能は、AMDのネイティブソフトウェアに対して約50%向上しています。

その後、12/22にModular Platform 25.6が正式にリリースされ、データセンターとコンシューマー向けGPUの完全サポートが実現し、MojoがApple Siliconを直接サポートするのは初めてとなりました。公式はこれを「Write once, run anywhere」と表現しています。

「開発者がMojoで書いたコードは、NVIDIA、AMD、Apple Siliconのためにそれぞれのバージョンを書く必要がなく、同じコードが異なるGPU、異なるベンダーのハードウェア上で実行できます。」

統一の象徴 AI計算層は、概念から実際の実現へと移行します。

この記事は、NVIDIAのAIソフトウェアの覇権に挑戦します!Modularがハードウェア統合AIプラットフォームを構築し、CUDAと対決します。最初に現れたのは、ChainNews ABMediaです。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし