DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…

— ollama (@ollama) April 24, 2026

DeepSeek V4 Preview:兩款尺寸、1M 脈絡

根據 DeepSeek 官方 API 文件 4/24 發布公告,DeepSeek-V4 Preview 分兩款尺寸同步開源釋出:

型號 總參數 活躍參數 定位 DeepSeek-V4-Pro 1.6 兆 490 億 目標對標閉源旗艦 DeepSeek-V4-Flash 2,840 億 130 億 快速、高效、低成本

兩款均採 Mixture-of-Experts(MoE)架構,原生支援 100 萬 tokens 長脈絡。DeepSeek 在公告中宣告:「1M 脈絡現在是所有 DeepSeek 官方服務的預設值。」

架構創新:DSA 稀疏注意力+Token-wise 壓縮

V4 系列核心的架構改進包含:

Token-wise 壓縮搭配 DSA(DeepSeek Sparse Attention)——針對超長脈絡下的推論運算與 KV 快取記憶體大幅削減成本

相較 V3.2,V4-Pro 在 100 萬 tokens 脈絡情境下,單 token 推論僅需 27% 的 FLOPs、KV cache 僅需 10%

支援 Thinking 與 Non-Thinking 雙模式切換,對應不同任務的深度推理需求

API 層面同時相容 OpenAI ChatCompletions 與 Anthropic APIs 規格,降低既有 Claude/GPT 客戶端的遷移成本。

Ollama Cloud 的三組一鍵啟動指令

Ollama 官方模型頁以模型識別符 deepseek-v4-flash:cloud 提供雲端推論服務,開發者可用以下三組指令直接把 V4-Flash 串到既有 AI 程式開發工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是「美國主機」這個訊號。對企業與歐美開發者而言,使用中國開源模型時最大疑慮是資料回傳中國;Ollama 選擇把 V4-Flash 的推論層放在美國,意味著 prompt 與程式碼內容不離開美國司法管轄,降低合規與資料主權層面的摩擦。

為什麼這件事對 AI 產業重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三個原本各自獨立的生態接起來,產生三層意義:

成本路線:V4-Flash 的 130 億活躍參數遠小於 GPT-5.5(輸入 5 美元、輸出 30 美元/百萬 tokens)與 Claude Opus 4.7 等旗艦,對於中小型代理任務、批次摘要、測試自動化等用途,單位成本可望顯著下降

地緣風險的中介層:Ollama 作為美國註冊的中介推論層,讓中國原生模型的企業用戶得以繞開「資料直接送 DeepSeek 北京伺服器」的疑慮,是開源模型在國際擴散的實務解法

開發者即時切換:Claude Code 與 OpenClaw 的用戶可在命令列一行切模型,不必改 prompt 結構或 IDE 設定,對於「多模型回歸測試」「成本敏感的批次任務」使用場景是真正的生產力釋放

與先前 DeepSeek 新聞的連動

這次 V4 釋出與 Ollama Cloud 快速整合,發生在 DeepSeek 正在洽談首輪外部融資、估值 200 億美元的背景下。V4 是 DeepSeek 公司資本化過程中的關鍵產品證明;以開源策略+國際主機合作夥伴快速擴散,則是其建立開發者生態壟斷前的速度戰。對 OpenAI 與 Anthropic 而言,一個可以在 Claude Code 內部一行切換的開源替代模型,是 agent 工作流主導權爭奪的新變量。

這篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

英特爾的利多消息為何帶動輝達股票飆漲?

英特爾本季財報EPS0.29美元、營收136億美元雙雙超預期,資料中心與運算設備更新動能回升,提振半導體與AI需求信心。此利多帶動輝達股價中午上漲約4.9%,市場認為基礎算力需求仍旺,降低AI泡沫化憂慮,並支持輝達長線成長預期。兩者競爭同時出現正向板塊聯動。

鏈新聞abmedia4小時前

中國與美國因模型蒸餾指控及投資限制面臨 AI 對決

Gate 新聞訊息,4 月 24 日——中國已駁斥美國指控,稱其科技巨頭正透過工業級蒸餾(distillation)手段,剝削美國的 AI 技術;同時,雙方正為在 AI 開發與投資管控上發生重大衝突做準備。川普政府正準備打擊被指控竊取美國 AI 模型的實體,同時

GateNews6小時前

Alphabet 將向 Anthropic 投資最高 $40 Billion,推動 AI 競爭升溫

Gate News 消息,4 月 24 日——Alphabet(Google 的母公司)計劃向 AI 開發商 Anthropic 投資最高 $40 billion,其中包括 $10 billion 的預付款,以及在達成特定績效里程碑後提供 $30 billion 的額外資金。此次投資是在 Alphabet 先前於 Anthropic 持有 14% 股權之後。

GateNews8小時前

瑞士監管機構 FINMA 警告:Anthropic 的 Mythos AI 工具 具金融風險

Gate 新聞訊息,4 月 24 日——瑞士金融市場監管局 (FINMA) 表示,允許銀行快速且便捷地採用 Anthropic 的人工智慧工具 Mythos,將對金融體系構成嚴重風險。

GateNews8小時前

英偉達重奪 $5 Trillion 市值,創下新高的歷史最高收盤價

Gate 新聞訊息,4月24日——英偉達(Nvidia)週五大漲4.2%,重新奪回市值超過 $5 兆美元,並以每股 $208 美元收盤,創下歷史最高的收盤紀錄。這波單日反彈為該晶片製造商的市值增加超過 $200 十億美元,股價盤中最高約為 $5.

GateNews9小時前

DeepSeek V4 以 1M 上下文窗口发布;华为 Ascend 与 燚微(Cambricon)芯片实现全兼容

Gate News 消息,4 月 24 日——DeepSeek V4-Pro 和 DeepSeek V4-Flash 于 4 月 24 日正式发布,并开源,背景处理长度已从 128K 大幅扩展至 1M,代表近 10 倍的容量提升。华为计算宣布其 Ascend 超算节点

GateNews9小時前
留言
0/400
暫無留言