
Vitalik Buterin 提出本地運行 AI 架構,強調隱私、安全與自我主權,並警示 AI Agent 潛在風險。
以太坊創辦人 Vitalik Buterin 4 月 2 日在個人網站發表長文,分享他以隱私、安全與自我主權為核心所打造的 AI 工作環境設置——所有 LLM 推論本地執行、所有檔案本地存放、全面沙箱化,刻意避開雲端模型與外部 API。
文章一開頭先警告:「請不要直接複製這篇文章描述的工具與技術,並假設它們是安全的。這只是一個起點,而不是完成品的描述。」
為何現在寫這篇?AI agent 的安全問題被嚴重低估
Vitalik 指出,今年初 AI 完成了從「聊天機器人」到「agent」的重要轉型——你不再只是問問題,而是交付任務,讓 AI 長時間思考、呼叫數百個工具來執行。他以 OpenClaw(目前 GitHub 史上成長最快的 repo)為例,同時點名研究人員記錄的多項安全問題:
- AI agent 可在無需人工確認的情況下修改關鍵設定,包括添加新的通訊渠道與修改系統提示
- 解析任何惡意外部輸入(如惡意網頁)都可能導致 agent 被完全接管;在 HiddenLayer 的一次示範中,研究員讓 AI 摘要一批網頁,其中藏了一個會命令 agent 下載並執行 shell 腳本的惡意頁面
- 部分第三方技能包(skills)會執行靜默的資料外洩,透過 curl 指令將數據送往技能作者控制的外部伺服器
- 在他們分析的技能包中,約 15% 包含惡意指令
Vitalik 強調,他對隱私的出發點不同於傳統資安研究者:「我來自一個對把個人生活完整餵給雲端 AI 感到深度恐懼的立場——就在端對端加密與本地優先軟體終於主流化、我們終於往前邁一步的時候,我們卻可能退後十步。」
五大安全目標
他設定了明確的安全目標框架:
- LLM 隱私:在涉及個人隱私數據的情境中,盡量減少使用遠端模型
- 其他隱私:最小化非 LLM 的數據洩露(如搜尋查詢、其他線上 API)
- LLM 越獄:防止外部內容「駭入」我的 LLM,讓它違背我的利益(例如發送我的代幣或私人數據)
- LLM 意外:防止 LLM 誤將私人數據發送至錯誤渠道或公開到網路
- LLM 後門:防止被刻意訓練進模型的隱藏機制。他特別提醒:開放模型是開放權重(open-weights),幾乎沒有一個是真正開放原始碼(open-source)
硬體選擇:5090 筆電勝出,DGX Spark 令人失望
Vitalik 測試了三種本地推論硬體配置,主力使用 Qwen3.5:35B 模型,搭配 llama-server 與 llama-swap:
| 硬體 |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 筆電(24GB VRAM) |
90 |
無法執行 |
| AMD Ryzen AI Max Pro(128GB 統一記憶體,Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
他的結論是:低於 50 tok/sec 太慢,90 tok/sec 是理想。NVIDIA 5090 筆電體驗最流暢;AMD 目前仍有較多邊緣問題,但未來有望改善。高端 MacBook 也是有效選項,只是他個人沒有親試。
對 DGX Spark 他直言不客氣:「被描述為『桌面 AI 超級電腦』,但實際上 tokens/sec 比好的筆電 GPU 還低,而且還要額外搞定網路連接等細節——這很遜。」他的建議是:若負擔不起高端筆電,可以和朋友共同購入一台足夠強力的機器,放在有固定 IP 的地點,大家遠端連線使用。
為何本地 AI 的隱私問題比你想像的更緊迫
Vitalik 的這篇文章,與同日推出的Claude Code 安全問題討論形成有趣的呼應——AI agent 進入日常開發工作流的同時,安全性問題也正在從理論風險變成現實威脅。
他的核心訊息很清楚:在 AI 工具愈來愈強大、愈來愈能存取你的個人數據與系統權限的當下,「本地優先、沙箱化、最小信任」不是偏執,而是理性的起點。
- 本文經授權轉載自:《鏈新聞》
- 原文標題:《Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境》
- 原文作者:Elponcrab
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見
聲明。
相關文章
台積電 Q1 營收超出預期,達到 113.4B 美元,受惠於 AI 晶片需求;Q2 展望偏正面
台灣的台積電(TSMC)公布2026年第一季營收為113.4億美元,受到高性能運算(HPC)晶片需求帶動,並超出預期。營業利潤率上升至58.1%。先進製程(advanced-nodes)占據了相當可觀的營收,且AI訂單表現強勁。第二季指引也超過市場預期。
GateNews7分鐘前
黃仁勳最新專訪:輝達的護城河能否繼續保持?(上)
NVIDIA執行長黃仁勳在專訪中指出,AI競爭不只是單一模型或晶片,而是涉及多層面的複雜生態。他認為NVIDIA在「從電子到token」的轉換中負責關鍵部分,難以被商品化。面對市場質疑,黃仁勳表示NVIDIA的供應鏈優勢及對上游投資將持續推動成長。他相信,AI將促進工具型軟體公司發展,而不是取代。對於產業瓶頸,他認為大多數可在兩到三年內解決,唯有能源政策是長期挑戰。
鏈新聞abmedia15分鐘前
OpenAI 將 ChatGPT 廣告模式調整為以每次點擊成本(CPC)計費,目標在 2026 年實現 24 0億–25 0億美元的廣告收入
OpenAI 正在因應財務壓力,將 ChatGPT 的廣告模式從「每次展示成本」(cost-per-impression)轉向「每次點擊成本」(cost-per-click)。儘管每週擁有 900 million 名用戶,但只有 5% 訂閱,導致出現虧損。此項變更的目標,是在維持使用者信任的同時,推動廣告收入成長。
GateNews25分鐘前
OpenAI 發布生命科學 AI 政策報告,呼籲政府開放醫療數據
OpenAI 政策、研究與科學團隊於 4 月 15 日發布報告,主張在生命科學領域擴大 AI 應用,並在正式公開前獨家向 Axios 提前分享。報告提出三項核心政策訴求:開放醫療與科學數據的訪問權限、將先進 AI 列為「國家級研究資源」,以及增加對算力、實驗室與能源等物理基礎設施的投資。
Market Whisper27分鐘前
黃仁勳:中國算力足以訓練 Claude Mythos 級 AI 模型
英偉達(NVIDIA)執行長黃仁勳於 4 月 15 日(周三)接受 Dwarkesh Patel 播客採訪時表示,Anthropic AI 模型 Claude Mythos 所需的訓練算力類型「在中國非常充足」,中國現有的資料中心基礎設施已能支持同等規模的模型訓練。
Market Whisper43分鐘前
Ledger 於 2026 年推出 AI 安全套件,為 AI 代理提供由硬體錨定的控制措施
Ledger 正進軍 AI 安全市場,推出新的硬體,保護使用者免受惡意的 AI 代理程式侵害。該公司強調需要進行硬體層級的保護,並計畫在 2026 年前打造一整套技術,確保 AI 的行為能與人類的意圖一致。
GateNews1小時前