🔥 Gate 广场活动|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代币
以前想参与? 先质押 USDT
这次不一样 👉 发帖就有机会直接拿 KDK!
🎁 Gate 广场专属福利:总奖励 2,000 KDK 等你瓜分
🚀 Launchpad 明星项目,走势潜力,值得期待 👀
📅 活动时间
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎么参与?
在 Gate 广场发帖(文字、图文、分析、观点都行)
内容和 KDK上线价格预测/KDK 项目看法/Gate Launchpad 机制理解相关
帖子加上任一话题:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 奖励设置(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事项
内容需原创,拒绝抄袭、洗稿、灌水
获奖者需完成 Gate 广场身份认证
奖励发放时间以官方公告为准
Gate 保留本次活动的最终解释权
在人工智能领域的静默胜利不会关乎芯片的主导地位——而是关于能源效率。以下是为什么Alphabet占据优势的原因。
真正的竞争不在大家想象的地方
虽然市场沉迷于芯片制造商,但人工智能(AI)的真正战场在别处决定。英伟达(NASDAQ: NVDA)掌控着GPU领域,而超威半导体(NASDAQ: AMD)则持续反击。博通(NASDAQ: AVGO)使企业能够为AI任务定制ASIC(application-specific integrated circuits)。然而,最有能力主导下一阶段AI计算的公司根本不是纯粹的芯片制造商——而是谷歌母公司(NASDAQ: GOOGL)。
关键的区别在于:能效。正是在这里,谷歌的整合式方法改变了游戏规则。
为什么能耗成为新的制约因素
能源稀缺,而非芯片短缺,才是真正制约当今AI基础设施的瓶颈。GPU在快速处理海量数据方面表现出色,但它们是耗电大户。在AI训练过程中,这一成本大多是一次性的。而推理——即运行大型语言模型(LLMs)所需的持续计算工作——则是成本快速积累的地方。
从训练到推理的转变,是谷歌领先的关键。在过去十多年里,该公司自主研发了专为其TensorFlow框架定制的AI芯片。如今,进入第七代的谷歌的张量处理单元(TPUs),专为Google Cloud的基础设施和特定工作负载打造。结果是:性能优越,能耗更低。
竞争对手使用博通协助的ASIC根本无法复制这种效率。谷歌并不向外部客户销售TPUs——而是要求企业在Google Cloud上运行其工作负载以使用它们。这为谷歌带来了多重收入,形成了AI生态系统中的收入倍增效应。
此外,谷歌还在内部使用TPUs进行自己的AI项目。这种在开发和部署Gemini基础模型上的成本优势,为谷歌在结构上优于依赖成本更高、耗能更大的GPU的OpenAI和Perplexity AI等竞争对手提供了优势。
作为竞争护城河的集成堆栈
随着AI的发展,谷歌的端到端整合变得日益强大。没有任何竞争对手能组建如此全面的AI技术套件。最近发布的Gemini 3,凭借在多个领域超越常规前沿模型的能力,赢得了分析师的认可。
值得一提的是,当英伟达得知OpenAI正在测试谷歌的TPUs时,芯片巨头迅速行动,争取达成合作并在这家创业公司进行战略投资。这一反应本身就充分说明了英伟达对谷歌硅优势的重视。
谷歌还通过Vertex AI平台巩固其地位,使客户能够在Gemini基础上开发定制模型和应用程序。再加上其庞大的光纤网络基础设施——旨在最小化延迟——以及即将收购云安全公司Wiz,你会看到一个垂直一体化、无可匹敌的行业巨头。
赢者通吃
如果必须选择一个长期AI投资的唯一目标,谷歌无疑是最合理的选择。其在硬件、软件、云基础设施以及企业安全方面的掌控,形成了一个随时间递增的防御性优势。
随着推理工作负载占据主导,能效决定盈利能力,谷歌的定制生态系统将变得越来越难以超越。AI的真正胜负,不仅仅靠芯片的优越——而是靠整个技术堆栈的协同运作。而在这一点上,谷歌已经处于不同的层次。
图表数据和回报率指的是截至2025年11月的历史表现