Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI

動區BlockTempo

Google 官方宣布,正式推出新一代开放模型系列 Gemma 4。该模型采用与 Gemini 3 相同的技术架构,全面转向商业友好的 Apache 2.0 授权,并主打强大的本地端运行能力。
(前情提要:Google 量子电脑传 9 分钟破解比特币,数字怎么计算出来,真正威胁在哪里?)
(背景补充:AI 预测天灾》Google 推出「Groundsource」框架,用 Gemini 将全球新闻转化为 260 万笔救命数据)

本文目录

Toggle

  • 四大版本齐发,本地端也能顺畅运行
  • 支持 256K 窗口,原生多模态与函数调用
  • 效能直逼庞然大物,社群评价亮眼

Google 再度为开源代码 AI 领域投下震撼弹。官方最新宣布推出「Gemma 4」系列,标榜是目前旗下最智慧的开放模型。Gemma 4 直接承袭了旗舰模型 Gemini 3 的世界级研究技术,带来突破性的推理能力与代理式(Agentic)工作流程。最受社群矚目的是,Google 这次回应了开发者的呼声,全面改用商业友好的 Apache 2.0 授权,让用户能在任何环境中自由构建与安全部署,完全掌控自身的数据与基础设施。

我们刚刚发布 Gemma 4——迄今为止我们最智能的开放模型。

基于与 Gemini 3 相同的世界级研究,Gemma 4 将突破性的智能直接带到你的自有硬件上,用于高级推理和代理式工作流程。

在商业… pic.twitter.com/W6Tvj9CuHW

— Google (@Google) 2026 年 4 月 2 日

四大版本齐发,本地端也能顺畅运行

为了满足不同硬件与应用情境,Gemma 4 共发布四种不同规模的版本。最轻量的 E2B(2B 参数)专为行动装置与浏览器等边缘装置设计;E4B(4B 参数)则在效能与效率之间取得平衡,更原生支持视觉与音讯输入。而在高效能端,26B A4B 采用混合专家(MoE)架构,推理时仅启动约 4B 参数,让记忆体需求大幅降低,即使在配备 24GB 记忆体的 Mac Mini 等消费级硬件上也能顺畅运行。最高阶的 31B 密集模型则是该系列的效能旗舰。

支持 256K 窗口,原生多模态与函数调用

在技术规格方面,Gemma 4 的大型模型版本最高支持高达 256K tokens 的上下文窗口,让开发者能一次处理整个程式码库或庞大的文件资料。除了原生支持文字与图像处理(E2B 与 E4B 更支持音讯),Gemma 4 还具备强大的原生函数调用(Function Calling)能力,能稳定输出结构化 JSON 格式,为构建自主代理应用提供了极佳的基础。此外,其训练资料涵盖了超过 140 种语言,具备高度的全球适用性。

效能直逼庞然大物,社群评价亮眼

Gemma 4 强调极高的「每位元组效能」。根据 AI Arena 等开放模型排行榜的数据,Gemma-4-31B 目前高居开放模型第 3 名,整体表现甚至与体积庞大的 Qwen3.5-397B 相当,但其规模却仅有后者的十分之一。在研究生级推理基准测试(GPQA Diamond)中,31B 版本更创下 84.3% 的惊人成绩。

让我们看看开放模型 Gemma 在过去三个版本中是如何进步的。
– Gemma 4 比 Gemma 3 高出 100 位
– Gemma 3 比 Gemma 2 高出 87 位

@GoogleDeepMind 的这三款模型体积大致相同(31B、27B、27B),而这些增益只来自 9 和 13… https://t.co/9JnbveYzwT pic.twitter.com/JQtTz09Y1A

— Arena.ai (@arena) 2026 年 4 月 2 日

目前,开发者已可在 Google AI Studio 上直接体验 Gemma 4,或前往 Hugging Face、Ollama 等平台下载权重模型。社群也迅速跟进,推出针对 GPU 优化的量化版本。不过也有部分开发者指出,在面对真实世界复杂的程式码除错环境时,Gemma 4 仍有优化空间。但整体而言,此次开源发布无疑为推动数字主权与本地端 AI 应用注入了一剂强心针。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论