在像Claude或ChatGPT這樣的AI工具的主流應用迅速攀升之際,其商業機會仍待開拓。此外,作為集中式企業,它們可能容易受到操控、攻擊和審查的威脅。
去中心化的AI資源領域仍處於起步階段。在David Liberman和Daniil Liberman的帶領下,Gonka AI是該領域內的先驅之一。在與U.Today的訪談中,這些AI創新者討論了去中心化AI網絡的挑戰與前景、資金、代幣化、商業抱負等話題。
U.Today:嗨,David和Daniil,感謝你們的到來。請先簡單介紹一下你們的項目和在AI方面的背景。
**Gonka AI創始人:**感謝邀請我們——我們很高興能分享我們的故事以及Gonka背後的理念。
我們一同打造技術已經大半輩子了。早期的工作集中在分散式計算、電腦圖形和遊戲開發,這些經驗讓我們學會了如何將硬體推到極限,並以性能、效率和規模來思考。隨著時間推移,這些經驗自然演變成AI驅動產品、擴增實境以及大規模系統的開發。
2016年,Snapchat收購我們時,我們正致力於用於數億用戶的AR產品。之後,通過Product Science,我們專注於應用機器學習和性能優化,針對大型生產系統進行調整。這讓我們親身體驗到現代AI基礎設施的實際運作——不是理論,而是在現實約束下的運作。
這種視角最終引領我們走向Gonka。
Gonka源自Web2 AI研究者與Web3基礎設施運營者的合作。在思考AI基礎設施如何全球擴展時,我們受到比特幣的啟發——它不是作為金融資產,而是作為協調大規模去中心化基礎設施的藍圖,通過開放的、基於工作激勵的機制來實現。雖然行業大多已遠離工作量證明(Proof-of-Work),但我們的經驗證明,在計算和硬體創新方面,基於工作激勵的系統依然非常有效。
我們看到,AI研究者與基礎設施運營者各自擁有互補的優勢,卻很少同時出現。研究者理解智能如何轉變產業,而基礎設施運營者則擅長快速部署數據中心並通過經濟激勵優化硬體。Gonka通過以計算為先的AI基礎設施方法,將這兩個世界融合在一起。
開發工作始於2024年5月,到年底,第一批節點已在Gonka測試網上通信。主網於2025年8月底啟動,標誌著網絡向更廣泛參與開放。在主網啟動後的幾個月內,Gonka已聚合超過10,000個H100 GPU的等效算力,並吸引全球GPU運營商和AI開發者的持續參與。
Gonka將計算視為開放基礎設施——可驗證、高效,並圍繞實際貢獻構建。
U.T.:總體來說,你會將Gonka AI描述為一個AI還是Web3協議?
**G.:**我們首先會將Gonka描述為一個去中心化的AI計算協議。
我們要解決的問題是AI原生的:AI推理的計算如何產生、分配與治理。如今,這一層高度集中,由少數供應商控制,這影響了能建造什麼、誰能獲得以及成本。Gonka的設計旨在改變這一點,將計算視為開放基礎設施,而非受限的服務。
去中心化在這裡扮演輔助角色。就像比特幣曾經展示的硬體協調一樣,去中心化激勵可以是擴展現實世界基礎設施的強大方式。我們使用Web3的原語作為工具,而非產品本身。
從開發者角度來看,Gonka就像AI基礎設施一樣。開發者可以通過熟悉的OpenAI風格API與推理工作負載互動,而不需要考慮區塊鏈。從協議層面來看,去中心化允許網絡驗證真正的計算貢獻並自我治理,無需中央所有者。
因此,雖然Gonka在基礎設施層面採用Web3機制,但其核心目的明確是AI原生。
U.T.:AI領域正高速發展,並且不斷出現新概念。在這個競爭激烈的環境中,Gonka AI有何獨特之處?
**G.:**Gonka的獨特之處在於,我們並不打算打造另一個AI產品。我們專注於更深層的層面:AI計算的經濟學與基礎設施。
大多數新AI項目在模型、功能或用戶界面上競爭。Gonka則在這之下運作一層。我們提出更根本的問題:AI計算是如何產生的、由誰控制,以及哪些激勵在推動其演變?
與其他去中心化項目相比,Gonka有兩個主要差異。首先,Gonka圍繞實際工作使用工作量證明(PoW)激勵,而其他網絡則多用股權證明(PoS),激勵質押者(資本)。在Gonka中,參與者通過貢獻經過驗證的計算來獲得獎勵,而非金融工程或早期獲取。第二,幾乎所有的計算資源都用於有意義的AI任務,而非安全開銷。
另一個關鍵差異是治理。Gonka設計成由運營基礎設施的人來治理,沒有單一所有者決定價格、存取或方向。長期來看,這使網絡更具韌性,更貼近真正依賴它的人。
總結來說,Gonka的焦點有意狹窄但具有基礎性。我們不是在競爭成為最聰明的模型(但可以用Gonka計算來開發最聰明的模型),而是在建立一個讓多種模型、多種想法得以存在的基礎設施,而不會被集中控制所阻礙。
U.T.:Gonka AI的“去中心化AI網絡”是其主要概念之一。但為何AI需要去中心化?而目前超過99%的使用由Perplexity和ChatGPT等企業支持的產品覆蓋,這是否意味著中心化模式已經足夠?
**G.:**目前大多數AI應用的集中化並不代表模型有效——而是目前唯一可用。
實際上,先進GPU的獲取高度集中,少數硬體製造商和超大規模雲服務提供商實質上決定了誰能建設、在哪裡以及成本。例如,Nvidia的GPU位於AI堆疊的核心,且其存取越來越受到長期合約、地區限制和地緣政治的影響。
這種集中不僅是技術問題,更是經濟與主權問題。計算資源正逐漸受到地理限制,美國與中國競爭確保能源、數據中心和先進晶片。這種動態可能使全球大部分地區陷入結構性依賴,限制其競爭、創新或建立可持續的AI經濟。
同時,許多現有的去中心化網絡反而出現相反問題。它們在內部共識和安全機制上消耗大量GPU算力,卻用資本激勵而非實際計算貢獻來獎勵參與者。這兩個問題都會阻礙硬體供應商,並拖慢真正的基礎設施創新。
當規模暴露這些限制時,去中心化變得必要。像Gonka這樣的系統設計旨在將參與和影響力與經過驗證的計算貢獻掛鉤,使計算資源能被有效利用,並讓較小的獨立GPU運營商能夠資源整合、在成本與效率上競爭,減少對少數主導供應商的依賴。
如果AI正逐步成為像工業時代的電力或早期的網際網路一樣的基礎設施,那麼計算的存取權就不能由少數門檻控制者單方面設定價格和規則。集中式AI產品將持續存在,但長期的韌性需要另一種模式。
U.T.:此外,AI與Web3之間的協同概念似乎被過度使用。你們的觀點是什麼?這兩個領域將如何互動?有哪些潛在的應用場景?
**G.:**我們同意“AI與Web3協同”經常用非常抽象的詞彙來討論。我們的看法更實際:這種互動發生在基礎設施和激勵層面,而非口號或功能層面。
AI需要大量計算,而Web3提供協調資源與激勵的機制,能在多個獨立參與者之間運作,無需依賴單一所有者。Gonka正是在這個交叉點上,利用去中心化協調來使大規模AI計算變得可及且可驗證。
實務上,Web3提供協調與驗證層——確保計算貢獻是真實的、可衡量的,並得到公平獎勵。AI則提供工作負載,賦予這個基礎設施實際的應用價值。
最直接的應用場景是受開放性與可驗證性惠及的AI系統,包括鏈上或半鏈上AI代理、需要透明推理的應用,以及用戶對AI輸出產生方式有更強保證的系統。這也讓AI開發者能在不被鎖定在單一集中式供應商或API的情況下運行推理。
因此,我們認為協同並非將AI上鏈或為模型添加代幣,而是利用Web3機制構建開放、可擴展的AI基礎設施——並用AI工作負載賦予去中心化網絡真正的經濟價值。
我們曾見過類似的模式。比特幣展示了激勵一致如何促成大規模、全球分布的計算基礎設施,而無需集中協調。我們認為AI是這一演進的下一步——將去中心化計算引向現實世界的智能,而非抽象的安全工作。
U.T.:你們認為目前AI的進展與採用狀況是一個泡沫嗎?為什麼?
**G.:**我們不會稱AI本身是泡沫,但圍繞它的某些部分絕對是。
我們今天看到的,是每項基礎技術都會出現的熟悉模式。有真正的突破——真正有用且被廣泛採用的AI系統——在其上,還有一層投機層,期待值的增長速度超過基礎設施和經濟能支撐的範圍。
這就是“泡沫”說法的來源。不是因為AI的能力,而是因為人們認為擴展AI既便宜又無阻且無限可得。事實上,AI的進展越來越受基礎設施限制。計算成本高昂、集中且有限,即使需求持續增長。
歷史上,投機過度往往源於資本集中於最直觀的創新層,低估了底層的成本。投機層可能會修正,但基礎設施層會持續擴展——這才是長期價值的所在。
因此,如果今天有泡沫,那不是在AI技術本身,而是在於相信AI可以在不重新思考計算建設、所有權與治理方式的情況下擴展。這個差距正是像Gonka這樣的系統旨在解決的問題。
U.T.:你認為Gonka AI在B2B和B2C系統中的實際應用有哪些?
**G.:**如前所述,我們主要將Gonka視為基礎設施,因此其影響會出現在AI推理已經成為關鍵但受成本、存取或控制限制的場景。
在B2B方面,最直接的應用包括推理密集型系統,如AI代理、內部助手、客戶支持自動化和數據分析流程。對許多團隊來說,當前的瓶頸不是模型質量,而是價格波動、容量限制以及來自集中式供應商的不透明。Gonka使這些工作負載能在開放基礎設施上運行,存取與成本由實際計算決定,而非供應商鎖定。
在B2C和供應端,參與Gonka的方式具有彈性。主機可以獨立貢獻GPU算力——運行自己的基礎設施並根據驗證的計算工作直接獲得報酬——或加入資源池,整合多個較小參與者的資源。
資源池化是選項而非必須。它降低了資源有限的主機的門檻,而獨立運營者則可以按自己的條件全規模參與。這些模式共同使網絡能結合大型運營商與較小的貢獻者,形成一個可擴展的計算層。
這種彈性提升了面向消費者的AI應用的推理容量,而不依賴單一集中式供應商,同時保持參與對多樣化基礎設施運營商的開放。
U.T.:GNK代幣的用途是什麼?它的潛在受眾是誰?
**G.:**GNK是Gonka網絡的原生實用型代幣,主要用於獎勵經過驗證的計算提供者(主機)以及支付網絡上的AI計算費用。它旨在支持真正的AI工作負載,激勵與實際性能掛鉤,而非投機。
對AI開發者和建設者來說,GNK提供了在開放基礎設施上進行去中心化AI推理的通道。更廣泛來說,它也讓支持者能夠參與推動AI豐裕的理念——即計算能被高效協調並更易獲取,而非由少數集中式供應商控制。
U.T.: 請分享三個你們為Gonka AI和GNK感到驕傲的里程碑?
**G.:**我們引以為傲的第一個里程碑是來自Bitfury的5,000萬美元策略投資。除了資金外,這證明了去中心化高效AI計算的可行性,並借助Bitfury在大規模基礎設施方面的深厚經驗。
第二個里程碑是早期網絡規模。在前三個月內,Gonka聚合了超過12,000個H100 GPU的等效算力,展現出來自主機的強烈需求,這些主機希望獎勵與驗證的計算貢獻掛鉤,而非投機。
第三個里程碑是活躍的、由基礎設施驅動的GPU主機、AI建設者和研究人員社群的成長。包括早期貢獻者和顧問如6block、Hard Yaka、Gcore、Hyperfusion、Greg Kidd和Val Vavilov,以及持續的技術與媒體參與。這個社群持續自然擴展,目前有超過13,000名參與者積極交流基礎設施、性能與實際AI工作負載相關的見解。
這些討論多在Gonka的Discord中公開進行,GPU運營商、建設者和研究者在那裡直接合作推動網絡發展。
U.T.: 能否分享一些Gonka AI運行的硬體規格?
**G.:**Gonka運行在由獨立主機貢獻的多樣化高性能機器上。該協議針對現代數據中心級GPU基礎設施進行設計,優化用於AI推理。
實務上,包括配備H100或A100等效加速器的多GPU伺服器、企業級CPU、高帶寬記憶體與高速互連。具體配置因主機而異,但所有機器都必須達到適合大規模推理工作的性能門檻。
網絡也支持資源池化,允許多個主機高效整合資源。Gonka不強制硬體標準,而是專注於整體計算能力與可靠性,通過聚合多樣運營商的高品質基礎設施來擴展。
U.T.:這是一個陷阱問題:AI創業公司是否有可能實現可行的單位經濟?
**G.:**可以——但不是自動的,也不是所有公司都能。
目前“單位經濟問題”的一大原因來自計算經濟學:價格不透明、容量受限,以及推理成本隨使用量擴展。隨著越來越多的AI產品從演示轉向全天候運行,基礎設施成為限制因素。
兩個最新數據點清楚展現了方向:
因此,實現可持續的單位經濟越來越依賴於創業公司能否以可預測、可擴展且成本有效的方式獲取計算資源。將計算視為事後的公司將在使用量增長時陷入困境。而那些圍繞更佳基礎設施經濟——更高的利用率、透明的定價和更韌性的存取模型——建立的公司,絕對可以實現可持續的單位經濟。
U.T.:你對未來五年AI領域的市值預測是什麼?Gonka AI在其中的角色又是什麼?
**G.:**試圖預測五年後的確切市值數字,忽略了更重要的點——AI採用的速度與非線性。
我們已經看到,一旦基礎設施和分發到位,AI可以迅速從“可選”變成“預設”。2025年,微軟披露GitHub Copilot已達到約2000萬用戶,約90%的財富100強公司在生產中使用它。這樣的採用率,幾年前很難預料,卻充分展現了AI一旦融入實際工作流程,擴展的速度。
隨著這一轉變加快,瓶頸將從模型本身轉向可靠、經濟、全天候計算的存取。需求增長速度超過集中式基礎設施的承載能力,這也是為何存取、價格穩定性和容量供應成為創業公司與大型組織的戰略限制。
這正是我們看到Gonka的角色。我們不追求一個固定的路線圖或特定的AI市值份額。Gonka有意由社群驅動,並根據實際的計算需求進行演進。我們認為,開放、可驗證的計算網絡將成為AI經濟的關鍵層——不取代集中式供應商,而是限制其權力,擴展全球存取。
如果Gonka成功了,並非因為它比其他人更準確預測未來,而是因為它像基礎設施一樣建造——能適應、擴展,並支持AI的採用,即使成長速度比傳統模型預期的更快、更不均。