親愛的廣場用戶們,新年即將開啟,我們希望您也能在 Gate 廣場上留下專屬印記,把 2026 的第一句話,留在 Gate 廣場!發布您的 #我的2026第一帖,记录对 2026 的第一句期待、願望或計劃,與全球 Web3 用戶共同迎接全新的旅程,創造專屬於你的年度開篇篇章,解鎖廣場價值 $10,000 新年專屬福利!
活動時間:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活動獎勵:多發多獎,曝光拉滿!
1️⃣ 2026 幸運大獎:從全部有效貼文中隨機抽取 1 位,獎勵包含:
2026U 仓位體驗券
Gate 新年限定禮盒
全年廣場首頁推薦位曝光
2️⃣ 人氣新年貼 TOP 1–10:根據發帖量及互動表現綜合排名,獎勵包含:
Gate 新年限定禮盒
廣場精選貼 5 篇推薦曝光
3️⃣ 新手首貼加成獎勵:活動前未在廣場發帖的用戶,活動期間首次發帖即可獲得:
50U 仓位體驗券
進入「新年新聲」推薦榜單,額外曝光加持
4️⃣ 基礎參與獎勵:所有符合規則的用戶中隨機抽取 20 位,贈送新年 F1 紅牛周邊禮包
參與方式:
1️⃣ 帶話題 #我的2026第一条帖 發帖,內容字數需要不少於 30 字
2️⃣ 內容方向不限,可以是以下內容:
寫給 2026 的第一句話
新年目標與計劃
Web3 領域探索及成長願景
注意事項
• 禁止抄襲、洗稿及違
美麗國的開源人工智能戰略:兩個實驗室,一個問題——美麗國能否競爭?
解密的藝術、時尚和娛樂中心。
深入了解 SCENE
本週,兩家美國人工智能實驗室發布了開源模型,各自採取了截然不同的方法來解決同一個問題:如何與中國在公共可用人工智能系統中的主導地位競爭。
Deep Cogito 發布了 Cogito v2.1,這是一個龐大的 6710 億參數模型,其創始人 Drishan Arora 稱之爲 “美國公司中最好的開放權重 LLM。”
不要那麼快,艾倫人工智能研究所反駁道,它剛剛推出了Olmo 3,稱其爲“最佳完全開放的基礎模型”。Olmo 3擁有完全的透明度,包括其訓練數據和代碼。
具有諷刺意味的是,Deep Cognito 的旗艦模型建立在中國基礎之上。Arora 在 X 上承認,Cogito v2.1 “從 2024 年 11 月的開放許可 Deepseek 基礎模型進行分叉。”
這引發了一些批評,甚至關於微調一個中國模型是否算作美國人工智能的進步,或者只是證明了美國實驗室落後了多遠的辯論。
無論如何,Cogito 相對於 DeepSeek 顯示出的效率提升是真實的。
Deep Cognito 聲稱 Cogito v2.1 生成的推理鏈比 DeepSeek R1 短 60%,同時保持競爭力的性能。
使用阿羅拉所稱的“迭代蒸餾與放大”——通過自我改進循環培養模型更好的直覺——這家初創公司在RunPod和Nebius的基礎設施上,僅用75天就訓練了其模型。
如果這些基準測試是真實的,那麼這將是目前由美國團隊維護的最強大的開源大型語言模型(LLM)。
爲什麼這很重要
到目前爲止,中國在開源人工智能方面一直處於領先地位,而美國公司越來越依賴——無論是默默地還是公開地——中國的基礎模型以保持競爭力。
這種動態是有風險的。如果中國實驗室成爲全球開放人工智能的默認基礎設施,美國初創企業將失去技術獨立性、議價能力以及塑造行業標準的能力。
開放權重的人工智能決定了誰控制着每個下遊產品所依賴的原始模型。
目前,中國的開源模型(DeepSeek、Qwen、Kimi、MiniMax)在全球的採用中佔主導地位,因爲它們便宜、快速、高效,並且不斷更新。 圖片來源: Artificialanalysis.ai
許多美國初創公司已經在其上建立,盡管他們公開避免承認這一點。
這意味着美國公司正在建立基於外國知識產權、外國培訓渠道和外國硬件優化的業務。從戰略上講,這使得美國處於與其曾經面臨的半導體制造相同的境地:越來越依賴他人的供應鏈。
Deep Cogito 的方法——基於 DeepSeek 的分叉——展示了上行 (快速迭代) 和下行 (依賴)。
艾倫研究所的方法——以完全透明的方式構建 Olmo 3——展示了另一種選擇:如果美國想要在人工智能領域保持領導地位,就必須從數據、訓練配方到檢查點重新構建整個堆棧。這是一個勞動密集型且緩慢的過程,但它保留了對基礎技術的主權。
理論上,如果你已經喜歡 DeepSeek 並在線使用它,Cogito 大多數時候會給你更好的答案。如果你通過 API 使用它,你會更高興,因爲你將花更少的錢來生成良好的回復,這得益於它的效率提升。
艾倫研究所採取了相反的策略。整個 Olmo 3 模型家族與 Dolma 3 一起發布,這是一個從零開始構建的 5.9 萬億代幣訓練數據集,以及來自每個訓練階段的完整代碼、配方和檢查點。
該非營利組織發布了三個模型變體——Base、Think 和 Instruct——具有70億和320億個參數。
"在人工智能領域,真正的開放不僅僅是關於訪問——它還涉及信任、問責和共同進步,"該機構寫道。
Olmo 3-Think 32B 是首個在該規模下完全開放推理的模型,訓練所用的標記大約是類似模型如 Qwen 3 的六分之一,同時實現了競爭力的性能。 圖像:Ai2
Deep Cognito 在八月份獲得了由 Benchmark 領投的 $13 百萬種子資金。該初創公司計劃發布高達 6710 億參數的前沿模型,這些模型將在 “顯著更多的計算能力和更好的數據集” 上進行訓練。
與此同時,英偉達支持Olmo 3的開發,副總裁Kari Briski稱其對"開發者使用開放的美國建模的AI進行擴展"至關重要。
該機構在Google Cloud的H100 GPU集羣上進行訓練,計算需求比Meta的Llama 3.1 8B低2.5倍
Cogito v2.1 可在此處免費在線測試。模型可以在此處下載,但請注意:它需要一張非常強大的顯卡才能運行。
Olmo 在這裏可供測試。模型可以在這裏下載。這些更適合消費者,具體取決於您選擇哪一個。