CoreWeave 執行長 Michael Intrator 於 NVIDIA GTC 大會期間接受 All-in Podcast 訪談,分享從演算對沖基金公司轉型為專業基礎設施供應商的歷程,剖析早年如何用 GPU 槓桿融資起步,轉向專業 AI 模型開發,以及當前人工智慧發展面臨的能源供應挑戰與 AI 在資本效應下的前景未來。
為何 CoreWeave 從礦商轉型成專業基礎設施供應商?
CoreWeave 的起源並非傳統雲端服務,而是一間專注於天然氣的演算對沖基金,早期團隊利用 GPU 挖採比特幣、以太幣,經歷加密貨幣寒冬後,逐漸轉向為 GPU 基礎設施商,CoreWeave 開發了一些 CGI 渲染模型開發專案,讓那些嘗試製作動畫的人能夠渲染影像,然後轉向了批量計算。最終大概從 2020 年到 2021 年,開始真正嘗試弄清楚如何利用 GPU 進行神經網路開發模型。
Intrator 表示公司的競爭力在於提供專業化解決方案,其服務層級介於 NVIDIA GPU 硬體與人工智慧模型之間。相較於 AWS 等通用型超大規模資料中心,CoreWeave 選擇不與其直接競爭,而是專注於高效率、專用型的運算資源供給,藉此滿足人工智慧開發者對硬體性能的要求。
如何透過融資創新應對龐大的資本支出?
面對硬體採購的高昂成本,CoreWeave 首創以 GPU 作為抵押品的貸款模式,將債務結構與長期客戶合約直接掛鉤。Intrator 解釋這種機制能確保現金流優先支應資料中心營運成本、電費及債務利息,剩餘資金最後才回流至公司,這種創新的資本運作使 CoreWeave 能在 18 個月內迅速籌集約 350 億美元,展現了強大的資金調度能力。
CoreWeave 如何應對 GPU 短缺?
CoreWeave 利用作為 NVIDIA 長期策略合作夥伴的地位來應對 GPU 短缺問題,CoreWeave 能夠搶先一步,將最新的架構(例如 H 100、H 200 和 GB 200)大規模投入商業生產。此外,該公司還獲得了巨額長期合約,建立了專門的融資機制,使其能夠以前所未有的速度獲得資金採購硬件。
GPU 能源消耗成為人工智慧擴張的主要限制
Intrator 提出一項關鍵觀察,目前擴展人工智慧基礎設施的主要限制已非晶片產能,而是電力供應。高效能 GPU 顯著提升了資料中心的能源消耗,CoreWeave 報告其電力消耗量已達 4.5 吉瓦,相當於整個舊金山灣區的年用電量。由於 GPU 叢集需要極高的功率密度,傳統基礎架構難以承載,業界正尋求新的能源解決方案。為了維持成長,未來資料中心將日益傾向建設於靠近核能等清潔能源的地區,以支應人工智慧與機器人技術不可逆的能源需求增長。
AI 的資本效應帶來光明的未來
Intrator 表示 AI 降低了公司營運的資本門檻,一百萬個代幣的價格,剛推出時售價 32 美元多一點,現在一百萬個代幣只要 9 美分,如果有一個絕妙的主意,可以打開模型,告訴你的模型,可以用程式碼模擬它,可以做各種各樣不同的事情,創造出以前從未存在過的東西,AI 開啟了一個全新的領域,突破許多從前做不到的事。
這篇文章 CoreWeave 執行長分享 GPU 槓桿策略、AI 資本效應下的理想未來 最早出現於 鏈新聞 ABMedia。