Efficienza AI: 為何成為衡量智慧的新標準

AI 效率:智慧的新衡量標準

迷你摘要:來自 HUMANX、位於舊金山的觀點釐清了戰略脈絡:在 AI 中,限制不只是模型的品質,還包括可用的運算量(compute)。因此,能源效率、硬體—軟體共同設計、推論(inference)以及自有資料,正在成為企業與基礎設施的決定性因素。

在人工智慧的討論中,AI 效率正逐漸成為核心評準。在 HUMANX 的討論中浮現的是一個具體事實:運算量會受到物理、經濟與能源因素的限制。於是,用更少的資源得到更多成果,成為持續擴張的主要槓桿。

論點非常明確:如果可用的運算量受到約束,那麼「效率=智慧」。換言之,效率不只是最佳化的一個議題。它會直接放大 AI 的潛力。

這種觀點對企業、開發者與投資人都很重要。因為它把模型的演進連結到基礎設施、能源成本、系統設計,以及部署(deployment)的經濟可持續性。

推動 AI 成長的四個驅動力

根據在 HUMANX 所提出的分析,AI 的演進由四個主要驅動力推動:訓練(training)、訓練後(post-training)、部署(deployment)與代理(agent)。

訓練(training)建立模型的基礎能力。訓練後(post-training)會精煉其行為,並提升實際效用。部署(deployment)則把模型轉化為可被使用、且能擴展的系統。最後,代理(agent)代表更進一步的跳躍:不只是產生輸出(output),而是執行任務、編排工具,並在更具自主性的流程中運作。

然而,這四個層級都需要運算資源。當運算量變得稀缺或成本高昂時,每一次進展都取決於能否更有效地運用現有基礎設施。

AI 效率與運算量:真正的瓶頸

演講中出現的一句表述相當有力的是「compute = intelligenza」。這句話有助於理解產業目前的階段:AI 的品質不僅取決於模型架構,也取決於能否在可持續的方式下,動員足夠的運算(compute)。

但運算量並不是無限的。它會受到成本、硬體供給、設計時間、物理限制,尤其是能源消耗的制約。因此,競爭優勢不只屬於擁有更多資源的人,也屬於能設計出更高效率系統的人。

實務上,不只要追逐更大的模型。還必須弄清楚要把運算量配置到哪裡、要加速什麼、要最佳化哪些工作負載(workload),以及在品質、延遲與成本之間要接受哪些取捨。

AI 效率與能源:為什麼這是結構性限制

在所有限制之中,能源被指出是最重要的。所提出的定義非常具體:電腦本質上是一種把能源轉化為運算的裝置。

這個觀察把對話從軟體推向基礎設施。每一次 AI 能力的提升,都需要電力供應、散熱、晶片效率、熱管理,以及資料中心的經濟可持續性。

如果能源是根本性的限制,那麼提升能源效率就等同於提高實際的運算能力。因此,AI 的競爭不只會在模型的基準測試(benchmark)上進行,也會延伸到每單位有效工作所消耗的瓦數、推論(inference)的成本、運算密度,以及在量產中維持經濟空間的能力。

AI 效率與共同設計:硬體與軟體一起來

針對這個限制所提出的解法是共同設計(co-design),也就是整個技術堆疊的共同設計:電晶體、硬體架構、演算法、編譯器(compiler)、框架(framework)、函式庫(librerie)與資料集(dataset)。

訊息很清楚:不能只打造更快的電腦,還要弄明白要加速什麼。在軟體生態系快速變動的情境下(軟體週期約在 6 個月左右的規模),如果只做硬體而沒有整合式的軟體視野,可能就會產生效率低落或系統與實際工作負載不夠對齊的問題。

這一點對投資者同樣關鍵。基礎設施的決策往往有長期視野,而 AI 軟體則在 6-12 個月的窗口期內演進。因此,共同設計就變成一門策略性學科:它降低了在產品進入市場時,打造出的技術能力已部分過時的風險。

從訓練到推論,改變了優先順序

另一個核心轉變在於產業的焦點改變。過去 AI 賽跑的第一階段由訓練(training)主導;但如今關注點正在轉向推論(inference)、部署(deployment)與量產環境的可擴展性。

這是一個重要的範式轉換。在訓練階段,主要目標是最大化模型的能力;在推論階段,品質、延遲與成本會同時被考量。

正是在這裡,許多公司遇到 AI 的經濟現實:提供一個有用的服務不夠,還必須在可持續的條件下提供。

演講也指出一個具體風險:過早擴張,或未經適當最佳化,就可能意味著朝失敗去擴張。對企業而言,建議的順序更審慎:先驗證產品—市場契合度(product-market fit),再精煉效率與單位經濟(unit economics),最後再擴大營運規模。

更複雜的模型與開放式生態系

技術路徑並沒有暗示要簡化。相反地,模型複雜度會增加。在提到的例子中,有 Mixture of Experts(專家混合),這是一種架構,目標是使用專門化元件,以提升運算使用效率。

在這個脈絡下,開放式模型(open)扮演重要角色。Nemotron 被指出是一個有用的開放式模型範例,既能用於內部理解技術,也能用於強化社群(empowerment)。

對企業而言,這種作法能幫助更好地理解架構取捨、部署模式與生態系的動態,同時不必完全依賴封閉式系統。

不過,仍需釐清所呈現框架的一個限制:並未提供關於效能、消耗或比較優勢的定量基準或詳細實證資料。因此,這則訊息的價值主要仍停留在策略性與方向性的層面。

自有資料才是真正的競爭優勢

對企業世界而言,最重要的轉折之一是競爭優勢。所表達的立場非常明確:真正的「護城河(moat)」並不是模型本身,而是自有資料、對使用者的理解,以及隨時間觀察到的實際行為。

這則訊息也重新界定了把模型視為唯一資產的觀念。若模型變得愈來愈容易取得、可複製,或可整合,那麼差異就會轉移到競爭者不容易複製的內容:自有資料集、作業情境與營運環境、內部工作流程、使用者回饋,以及把這些資訊轉化為更好的產品的能力。

因此,對企業而言,投資優先順序會改變:不只是 AI 授權或取得先進模型,還包含資料治理、來源品質、與企業系統的整合,以及保護內部知識。

只押注單一技術賭注的風險

演講也呼應了另一個策略風險議題。理論上,一家公司可能希望把資源分散到多條技術路線上;但實際上,受限的資源、開發時程與基礎設施限制,會降低同時做「10 個賭注」的可能性。

這會暴露出科技轉型階段常見的一個問題:選擇一個方向是必要的,但也可能有風險。若過度投注在單一架構、單一供應商或單一市場假設上,當產業快速變動時,組織可能會因此而措手不及。

因此,模組化的做法、彈性的技術堆疊,以及維持調適空間的策略就變得重要。在一個快速移動的產業中,架構韌性幾乎和純粹效能一樣重要。

數百萬個專門化模型與在地的混合式本地—雲端 AI

所描繪的最引人注目的情境之一,是未來不由單一通用模型主導,而是由數百萬個專門化模型構成,分別服務於企業、用例與垂直產業(settori verticali)。

這種前景具有很強的產業邏輯。不同的應用在精準度、速度、成本、隱私與知識領域之間需要不同的取捨。通用模型或許仍會是起點,但實際營運價值會轉向適配真實情境的模型。

同時,隱私與在地 AI 也推動混合式架構:部分運算在裝置端或內部環境執行,部分在雲端完成。對受管制或敏感的產業來說,這種組合可能會成為比起單純的技術選項,更像是一項必要要求。

其結果很清楚:未來的 AI 基礎設施必須是分散式的,而非單一巨型系統。

超越語言:空間智慧(spatial intelligence)的前沿

AI 的發展不會止步於語言。接下來被指出的下一個前沿是空間智慧(spatial intelligence):能夠不只是理解文字,還能感知空間、對物理世界進行推理,並在真實環境中採取行動的系統。

這一步把 AI 的範圍擴展到機器人技術、跨模態感知、導航、實體互動,以及能夠把觀察與行動連結起來的代理。

在這裡,基礎設施議題也同樣是關鍵。系統越貼近真實世界,就越需要關鍵地面臨延遲、效率、可靠性,以及在地執行能力。

就目前所呈現的內容而言,整體仍偏向展望,並未得到具體公告或詳細的實驗結果支持。然而,策略方向是清楚的:下一階段的 AI 會比起只強調語言生成,更加重視把感知、推理與行動整合起來。

對企業、基礎設施與策略而言,會改變什麼

在 HUMANX 所浮現的整體訊息是:AI 進入一個更成熟、也更具選擇性的階段。能提供強大模型並不會消除真實的限制:運算量、能源、推論成本、技術堆疊的複雜度,以及技術變化的速度。

對企業而言,這意味著差異不只在於採用 AI,而在於這套系統如何被設計、部署,以及在經濟上如何被支撐。

因此,共同設計、能源效率、推論管理、自有資料的聰明使用,以及架構上的彈性,會成為決定性要素。

總結

在 HUMANX 所浮現的分析提出一個精確的主張:在 AI 中,限制不只是模型本身,而是可用的運算量與為了使用它所必需的能源。

因此,AI 效率會變成一個策略性變數。它牽動基礎設施、成本、可擴展性,以及經濟可持續性。

在這種情境下,推論、共同設計、自有資料與彈性架構,將成為下一階段人工智慧競爭的關鍵因素。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言