
據 Decrypt 於 5 月 7 日報道,Google Chrome 在未取得用戶同意的情況下,靜默地向符合條件的設備下載約 4GB 的 Gemini Nano AI 模型。隱私研究員 Alexander Hanff 在對新用戶配置文件進行自動化審計時發現了這行為,指此舉可能違反歐盟《電子隱私指令》。
Hanff 利用 macOS 核心文件系統日誌,追蹤到 Chrome 在用戶毫不知情的情況下創建臨時目錄、下載模型組件並儲存最終文件,整個過程耗時約 15 分鐘,全程無任何通知或提示,配置文件也未經任何人為操作。
文件儲存路徑與停用方法:
Windows:%LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\weights.bin
Mac / Linux:對應 Chrome 配置文件目錄下的相同資料夾
永久停用:前往 chrome://flags,或進入設定 > 系統關閉「設備端 AI」開關,或在 Windows 登錄中將 OptimizationGuideModelDownloading 設定為 disabled
Gemini Nano 為 Chrome 的設備端功能提供支持,包括「幫我寫郵件」、詐騙偵測、智慧貼上、頁面摘要和 AI 輔助標籤分組。
Chrome 近期在網址列新增了醒目的「AI 模式」(AI Mode)按鈕。一個普通用戶的合理推斷是:本機既然已安裝了 4GB 的 Gemini Nano,那麼 AI Mode 的查詢應該在本地執行,保護隱私。
但事實截然相反。AI Mode 將所有查詢全部路由至 Google 的雲端伺服器,本地的 Gemini Nano 模型完全不參與 AI Mode 的任何運算。換句話說,用戶用自己的磁碟空間和網路頻寬承擔了 4GB 的下載成本,卻在使用 AI Mode 時仍將每一次查詢發送至 Google 雲端。
Hanff 的法律論據主要依據歐盟《電子隱私指令》第 5 條第 3 款——即 Cookie 同意橫幅背後的同一條款——該條款要求在用戶設備上儲存任何內容前,必須取得「事先、自願、具體、知情且明確的同意」。他同時引用 GDPR 第 5 條第 1 款(透明度)和第 25 條(隱私設計),並將此案與他此前揭露的 Anthropic Claude Desktop 案相連——後者在約 300 萬台設備上預先授權瀏覽器自動化操作,同樣未取得明確許可。
Google 表示,2026 年 2 月起已推出允許用戶在 Chrome 設定中關閉並移除該模型的功能,並聲稱在儲存空間不足時模型會自動刪除。然而 Google 未回應最關鍵的問題:為何事先沒有徵求用戶同意?
更值得注意的是,Google 自己的 Chrome 開發者文件要求第三方開發者「提醒用戶下載所需時間」,但 Google 自身的這次行動完全未遵循這一建議。
在 Windows 中,文件位於 %LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\ 資料夾。若要永久停用(阻止重新下載),可前往 chrome://flags 搜尋 OptimizationGuideModelDownloading 並設定為 disabled,或進入 Chrome 設定 > 系統關閉「設備端 AI」選項。簡單刪除文件無效,Chrome 下次啟動時會自動重裝。
Gemini Nano 是為特定設備端輔助功能設計的輕量模型,AI Mode 是完全獨立的查詢功能,依賴 Google 雲端更強大的模型處理能力。兩者在技術層面是分開的產品,但 Chrome 的 UI 設計並未向用戶清楚區分,導致用戶可能誤以為本地模型用於所有 AI 功能。
《電子隱私指令》第 5 條第 3 款是歐盟監管機構追究 Cookie 同意問題的同一條款,具有明確的執法基礎。若監管機構認定 Gemini Nano 的靜默安裝構成「在用戶設備上儲存內容」,Google 可能面臨正式調查。目前尚無官方機構宣布啟動調查,但此案已引起歐洲隱私研究社群的廣泛關注。
相關文章