Google 推出 Gemma 4:四種規格、Apache 2.0 授權、從手機到伺服器全覆蓋

鏈新聞abmedia

Google DeepMind 4 月 6 日正式發布 Gemma 4,這是 Gemma 系列開放權重模型的第四代,共推出四個版本,授權改採 Apache 2.0,並新增對多模態輸入、agent 工作流程的原生支援。

四種規格:從行動裝置到伺服器全覆蓋

31B 稠密模型在 Arena AI 文字排行榜的開源模型中排名第三;26B 混合專家模型排名第六。Google 表示,兩款大型模型在 Arena AI 基準測試中,相較參數量多達 20 倍的其他模型仍有優勢。

核心能力:多模態、音訊、140 種語言

四個版本均原生支援影片與圖片多模態輸入,涵蓋 OCR 與圖表理解。邊緣版本(E2B、E4B)額外支援音訊輸入,可用於語音辨識場景。

所有模型均支援函式呼叫(function calling)、結構化 JSON 輸出,以及用於建構 agent 工作流程的原生系統指令。訓練語料涵蓋超過 140 種語言。

授權從自訂改為 Apache 2.0,商業使用更友善

過去 Gemma 系列使用的自訂授權對修改與再發布有所限制,Gemma 4 改採業界標準的 Apache 2.0 授權,允許商業使用、修改與再發布,無需與 Google 另行簽署協議。Google 表示,此舉使 Gemma 4 更適合企業與開發者應用。

四款模型現已全面開放使用。Google 目前尚未公布邊緣模型整合至 Android 或消費者硬體產品的時間表。

這篇文章 Google 推出 Gemma 4:四種規格、Apache 2.0 授權、從手機到伺服器全覆蓋 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言