📢 GM!Gate 广场|4/5 热议:#假期持币指南
🌿 踏青还是盯盘?#假期持币指南 带你过个“松弛感”长假!
春光正好,你是选择在山间深呼吸,还是在 K 线里找时机?在这个清明假期,晒出你的持币态度,做个精神饱满的交易员!
🎁 分享生活/交易感悟,抽 5 位锦鲤瓜分 $1,000 仓位体验券!
💬 茶余饭后聊聊:
1️⃣ 休假心态: 你是“关掉通知、彻底失联”派,还是“每 30 分钟必刷行情”派?
2️⃣ 懒人秘籍: 假期不想盯盘?分享你的“挂机”策略(定投/网格/理财)。
3️⃣ 四月展望: 假期过后,你最看好哪个币种“春暖花开”?
分享你的假期姿态 👉 https://www.gate.com/post
📅 4/4 15:00 - 4/6 18:00 (UTC+8)
在CES大会期间,英伟达全新推出的Rubin架构成了最近市场讨论的焦点,什么MOE架构之外另一重大突破,什么为Agentic AI时代量身设计等等,我深入看了下,的确感受到老黄“自我革命”那味了:
1)过去英伟达依附的是GPU硬件优势,踩上了各大AI巨头都在疯狂采购算力训练大模型的红利期。那时候逻辑很简单,谁的显卡多谁就能训练出最好的模型。
但现在AI战争已经从“算力”战场转移到“推理”,尤其是Agentic时代到来后,AI需要处理高频、多步、超长上下文的推理。
这个时候,模型参数动辄万亿,数据吞吐量极大,GPU 算得再快,如果内存传数据不够快,GPU 就得空转,这就是“存力墙”,换句话说,显卡多已经解决不了问题了,还需要高显存和带宽来支撑。Rubin要解决的就是这个问题。
2)所以 Rubin首发的HBM4就好撑第四代高带宽内存,可以让带宽到达22TB/s。但更关键的是它配合NVLink 6技术(机架内带宽260TB/s),把72张卡在逻辑上变成了“一颗巨型芯片”。
这意味着什么?以前你买显卡,买的是一个个独立组件,数据在卡与卡之间传输就像快递要经过好几个中转站。现在Rubin通过极高密度的互连,让数据在不同GPU之间流转时几乎感觉不到物理距离,72个工人不再各干各的,而是共享一个大脑。
我想这才是Rubin真正的杀招:不是单纯堆硬件参数,而是让整个系统数据流转的重构。
3)如果说MOE( 混合专家模型架构 )是英伟达被DeepSeek等后起之秀堆英伟达“暴力堆卡”商业模式的一次降维打击,那Rubin怎么看都是老黄的一次战略反击,不在跟你们比谁更省卡,而是直接重构AI的使用成本。当然,出此奇招也意味着英伟达彻底要和暴力堆卡的旧模式说再见了。
老黄算的是另一笔账,Agentic时代要真正落地到千行百业,就必须跨过Token成本这道坎,这是英伟达守不住的大势所趋。
在老黄看来,与其等着被谷歌、Meta等大厂自研芯片蚕食市场,又或者被DeepSeek等用模式颠覆供给侧市场,还不如主动做破局的那个人。
4)问题来了,自我革命后的英伟达要如何自处?路径也很清晰,从"卖显卡"变成"卖系统",从服务少数大厂变成让AI真正普及。
以前你买H100,英伟达赚的永远知识那一份显卡的钱,以后的Rubin会告诉你:你得买整套NVL72机架——72张GPU、NVLink Switch、全液冷系统、机柜,甚至包括配套的软件栈,全部打包卖给你。
老黄的算盘也很清楚,看起来打包后的硬件成本更贵了,但附加了极致的推理效率,把采购方AI使用的单元成本给拉下来了,也自然不会丢失市场份额。
但但但,这套玩法对中小玩家的门槛也更高了。只有大厂和云服务商才能玩得起,会进一步加剧算力垄断。在当前竞争形势下堪称一次豪赌,因为一旦HBM4量产存在问题,就会被AMD、谷歌TPU等抓住窗口期推出的替代方案给替代,那英伟达卖系统的美梦可能没那么容易实现了。