亲爱的广场用户们,新年即将开启,我们希望您也能在 Gate 广场上留下专属印记,把 2026 的第一句话,留在 Gate 广场!发布您的 #我的2026第一帖,记录对 2026 的第一句期待、愿望或计划,与全球 Web3 用户共同迎接全新的旅程,创造专属于你的年度开篇篇章,解锁广场价值 $10,000 新年专属福利!
活动时间:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活动奖励:多发多奖,曝光拉满!
1️⃣ 2026 幸运大奖:从全部有效帖子中随机抽取 1 位,奖励包含:
2026U 仓位体验券
Gate 新年限定礼盒
全年广场首页推荐位曝光
2️⃣ 人气新年帖 TOP 1–10:根据发帖量及互动表现综合排名,奖励包含:
Gate 新年限定礼盒
广场精选帖 5 篇推荐曝光
3️⃣ 新手首帖加成奖励:活动前未在广场发帖的用户,活动期间首次发帖即可获得:
50U 仓位体验券
进入「新年新声」推荐榜单,额外曝光加持
4️⃣ 基础参与奖励:所有符合规则的用户中随机抽取 20 位,赠送新年 F1 红牛周边礼包
参与方式:
1️⃣ 带话题 #我的2026第一条帖 发帖,内容字数需要不少于 30 字
2️⃣ 内容方向不限,可以是以下内容:
写给 2026 的第一句话
新年目标与计划
Web3 领域探索及成长愿景
注意事项
• 禁止抄袭、洗稿及违规
挑战辉达 AI 软体霸权!Modular 打造跨硬体整合 AI 平台对决 CUDA
在生成式 AI 全面席卷全球的这个时刻,几乎所有 LLM、云端服务与 AI 新创,背后都离不开同一套关键基础建设,也就是辉达 (NVIDIA) 的 CUDA 软体生态。这套原本为显示卡打造的程式架构,在过去近二十年间,逐步扩张成 AI 产业实际运作的「隐形作业系统」。
成立于 2022 年的新创公司 Modular,正试图正面挑战这种高度集中、由单一供应商主导的结构。Modular 的目标不是再做一颗新晶片,而是打造一套「可携式 AI 软体堆叠平台」,让 AI 模型能在不同 GPU 与加速器之间自由移动,不再被锁死在辉达与 CUDA 的生态系中。
2022 年创业起点,底层工程师直闯 CUDA 核心
Modular 由两位来自 Apple 与 Google 的底层软体工程师于 2022 年创立。执行长 Chris Lattner 曾打造 Swift 与 LLVM 编译器体系,共同创办人 Tim Davis 则参与 Google TPU 关键软体架构。
两人都曾亲历过新硬体如何「靠软体打开市场」的这个过程,因此选择离开大型科技公司,直接挑战 CUDA 所代表的 AI 软体霸权。这场不对称战争在业界眼中近乎疯狂,但也因为对系统底层理解够深,才被视为少数有机会尝试的团队。
CUDA 难以取代,AI 产业的结构性枷锁
CUDA 原本只是让显示卡能被程式化的工具,随着深度学习崛起,逐步扩张为涵盖语言、函式库、编译器与推论引擎的完整生态。
对多数 AI 团队而言,只要使用辉达 GPU,几乎就无法避开 CUDA。即使市场上有 AMD GPU、TPU 或云端业者自研晶片,每种硬体背后仍绑着专属软体,开发者自然倾向选择最成熟、工具最齐全的 CUDA,形成高度锁定的产业结构。
没有诱因的工程,反而成为突破口
Lattner 指出,跨晶片、跨供应商的可携式 AI 软体并非不重要,而是「没有人有足够诱因承担成本」。这类工程难度极高、回收期漫长,短期内几乎看不到商业成果,却是整个产业普遍渴望的能力。
正是这种矛盾,让 Modular 选择在生成式 AI 爆发前,提前投入底层系统的长期开发,并在成立后前三年刻意远离市场聚光灯。
三年低调耕耘,资金与团队逐步到位
截至 2025 年,Modular 已累计募得约 3.8 亿美元资金,投资人包括多家矽谷一线创投。2025 年 9 月完成最新一轮融资后,公司估值约 16 亿美元。
这些资源让 Modular 能够招募来自 Google、Apple 的资深工程师,组成专注于编译器、系统软体与 AI 基础建设的团队,持续打磨完整软体堆叠。
三层软体架构,从语言到算力丛集
Modular 的技术核心由三层组成,分别为:
最上层:为 Mammoth,用来协助企业在多 GPU、多供应商环境中进行算力调度与管理,解决实际部署与维运问题。
中间层:为 MAX 推论引擎,负责模型实际运行,已支援 NVIDIA、AMD 与 Apple Silicon。
最底层:为 Mojo 程式语言,语法贴近 Python、效能接近 C++,可与主流 AI 框架整合。
2025 关键验证,统一运算层正式成形
2025 年 9 月,Modular 公布关键测试成果,在同一套软体平台下,同时驱动辉达 Blackwell B200 与 AMD MI355X 跑出顶级效能,其中 MI355X 表现甚至较 AMD 原生软体提升约 50%。
随后在 12/22,Modular Platform 25.6 正式发布,完整支援资料中心与消费级 GPU,并首次让 Mojo 直接支援 Apple Silicon。官方将此形容为「Write once, run anywhere」,也就是:
「开发者用 Mojo 写好的程式码,不需要为辉达、AMD、Apple Silicon 各写一套版本,同一份程式,就能在不同 GPU、不同供应商的硬体上执行。」
象征统一 AI 运算层从概念走向实际落地。
这篇文章 挑战辉达 AI 软体霸权!Modular 打造跨硬体整合 AI 平台对决 CUDA 最早出现于 链新闻 ABMedia。