✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
小模型撞上 Terafab:AI 的规模迷信开始动摇
小模型正在动摇「规模」信仰
Elon Musk 先放风说 V15 是 xAI 的下一代大模型,转头又承认小模型迭代更快。这个反转值得注意:对参数规模的迷信正在消退。
回看时间线:2025 年 11 月 Grok 4.1 转向强化学习优化效率,随后 Terafab 算力扩张跟上。竞争优势的来源从「模型大」变成了「推理快 + 软硬件协同」。
这不是孤例。OpenAI 的 o1、Anthropic 的 Claude 3.5 都在把「推理质量」放到「参数堆叠」前面。Musk 的表态强化了成本效率优先的趋势,给重资产基础设施路线带来压力。工程圈也在争论这是否印证了小模型在边缘端的优势;质疑者则指出 V15 规格还没人看到过。
与此同时,Terafab 和 Intel 合作把年化 1TW 级算力摆上台面。如果 xAI 把模型进展和自有硬件生态绑紧,随着 Colossus 集群以更低成本扩展强化学习,Nvidia 的位置会受到挤压。
有一个叙事被过度演绎了:把 V15 当成「即将落地的 GPT 杀手」。没有扎实基准,都是噪音。关键看部署指标,不是发布时间线。
Terafab 正在改写算力版图
这条推文出现在 2026 年 4 月 Terafab 发布前后,把模型延迟和硬件瓶颈具体化了。研究者指出,xAI 的强化学习扩展(比如 Grok 4 的工具使用能力)让小模型靠数据效率而非堆参量追上来。社交媒体上热议「SpaceX + X + xAI」合并传闻,估值 1.25 万亿美元。这利好垂直整合玩家,也会引来监管对资本集中度的关注。
市场把 xAI 的延迟解读为疲弱,更可能是为硬件对齐争取时间的「战略性耐心」。这也让 Anthropic 的「安全优先 + 规模扩展」路径处境不利。
结论:
重要性:高
分类:模型发布、行业趋势、技术洞察
判断:我们还处在「效率优先 + 垂直整合」叙事的早期。最有优势的是能把模型、数据、算力闭环的建设者和垂直栈,以及现在就转向低成本推理的企业买方;纯押 GPU 的交易型参与者处于劣势。