2026年2月,一份名為《2028全球智力危機》(The 2028 Global Intelligence Crisis)的研究報告在金融市場引發廣泛關注。這份由Citrini Research發佈的宏觀情境推演,虛構了從當下到2028年的經濟演變路徑:美國失業率突破10%,標普500指數自高點回檔38%,一場由AI驅動的結構性危機悄然降臨。
報告描繪了一個令人警醒的圖像:當AI代理能以邊際成本趨近於零的方式完成複雜白領工作時,軟體服務、金融中介、專業諮詢等產業的商業模式將被系統性瓦解。企業用裁員節省下來的資金購買更多AI算力,進一步裁員,形成「沒有自然剎車的反饋循環」。經濟產出依然成長,卻不再流向人類消費部門——報告稱之為「幽靈GDP」(Ghost GDP)。
這份報告之所以引發震撼,並非因其預測的準確性,而是因為它觸及了一個根本性問題:當機器智慧逐漸取代人類智慧這一曾經最稀缺的生產要素時,現有的經濟理論架構是否依然適用?正如報告聯合作者阿拉普·沙阿在接受訪問時強調:「這不是預測,而是基於長期模型的壓力測試——如果AI真的如大家所期待般持續變強,哪些商業邏輯會最先行不通?」
本文以此為起點,構建「挑戰—趨勢—影響—應對」的分析框架,聚焦2025年至2075年的「世代過渡期」,探討當「執行力」成本趨近於零時,生產要素的稀缺性結構如何轉移,財富分配與社會契約將如何演化。
價值重估:生產要素的稀缺性轉移
執行力成本的歸零趨勢
「執行力」指可被演算法化、流程化的重複性腦力與體力勞動——基礎程式設計、財務核算、內容生成等。AI正將這類執行的邊際成本推向趨近於零。《2028全球智力危機》報告中描繪的場景:印度IT服務業每年超過2,000億美元的出口收入面臨挑戰,因為全球客戶開始轉向成本僅為電費的AI編碼代理。報告指出:「整個模式建立在一個價值主張上——印度開發者的成本僅為美國同行的幾分之一。但AI編碼代理的邊際成本已經崩潰到,本質上,就是電費。」
這一趨勢已獲得數據支撐。美國IT產業的就業人數自2022年高點至2026年初累計下降8%。這個產業正是AI滲透最快的領域。沙阿指出:「一個產業越容易把工作交給AI,職位減少就越明顯。而最容易被取代的,正是白領工作。」資訊處理、數據分析、流程審批——這些過去需要高學歷、高收入族群完成的工作,現在AI都能以極低成本完成。
從經濟學視角審視,這本質上是生產要素相對稀缺性的結構性調整。張曉晶、李晶晶在《金融評論》撰文指出,AI正引發「稀缺性轉移」——主導資源類型的相對稀缺性結構在技術變革背景下的調整,其內涵包括新型無形資本(數據、演算法與算力等)權重上升,同時部分勞動要素的稀缺性地位被削弱。
決策權的稀缺性價值上升
與執行力成本下降相伴的,是「決策權」價值的凸顯。決策權包括:在資訊不完備下承擔風險、進行資源分配、設定目標、處理倫理困境、對AI輸出進行批判性評估與最終裁決的能力。
經濟學中的企業家精神理論早已揭示:決策與風險承擔是利潤的根本來源。當執行力供給無限時,其價格(工資)趨零,與之互補的「決策」成為瓶頸要素,其價值(租金/利潤)必然上升。這正是「稀缺性轉移」的另一面——AI系統具備自動化複雜認知任務的能力,削弱了人力在資訊處理領域的稀缺性地位,但同時催生出新的稀缺性來源。
在組織層面,AI正重塑決策機制。規則清晰、數據充足、重複發生的決策最易被AI取代;而在更高風險、需要負責的決策上,AI更多作為「思考夥伴」出現。一項基於蒙地卡羅模擬的研究顯示,在複雜情境中,人機協作策略能產生最高經濟效用,但前提是實現真正的「增強」(augmentation);若未能實現協同,人機協作的表現可能比純機器或純人類策略更差。
結構相變:收入分配格局的演化邏輯
從勞動收入到資本與決策收入
AI正在改變收入分配的基礎結構。IPPR的分析顯示,英國與具備技術自動化潛力的工作崗位相關的工資總額達2,900億英鎊,佔工資總額的三分之一。若自動化導致平均工資下降或工時減少,相當部分的國民收入將從勞動轉向資本。
《2028全球智力危機》報告描繪了這一趨勢的極端後果:勞動力佔GDP的比例從2024年的56%銳減至2028年情境中的46%。財富越來越集中在「算力與資本的所有者」手中,而勞動收入持續萎縮。這並非技術性失業的簡單重演,而是價值創造與價值分配的脫鉤——「機器不必花錢消費」,當產出成長不再轉化為消費能力,經濟循環的基礎開始動搖。
AI時代的分配極化根植於新型無形資本的稀缺,其持續強化的邊際價值和集中占有,重構了現代經濟的要素分配邏輯。當資本所有權的分布高度不均時,資本收入份額的上升必然加劇不平等——「誰擁有機器人,誰就將擁有越來越大的國民財富份額」。
這一影響正從局部產業向整體經濟擴散。沙阿指出,收入排在前20%的族群貢獻了全美約65%的消費支出。若白領收入出現問題,整條消費鏈的現金流將隨之承壓。報告推演了一個具體場景:5%的白領失業,帶來的消費下滑可能遠超5%——一名年薪15萬美元的產品經理失業後轉向零工經濟,收入降幅可能超過70%。
AI收益社會化的政策討論
當AI成為社會核心生產力,其產生的巨大收益是否需要透過某種機制進行二次分配?這一問題的討論正在升溫。Baker Tilly的專家指出:「要讓AI驅動的經濟蓬勃發展,社會必須確保消費者保持購買力。某種形式的全民基本收入或變體,可以提供這一安全網。」
科技巨頭已提出多種類似設想。OpenAI執行長薩姆·奧爾特曼提出「美國平等基金」,計畫對大公司和私人土地徵收2.5%的稅,為每位美國成年人發放年度股息。微軟消費者AI業務負責人穆斯塔法·蘇萊曼主張「普遍基本服務」,將獲取強大AI系統視為基本權利。
但這些設想面臨多重質疑。深入審視可以發現,奧爾特曼的方案並未主張讓工人控制OpenAI,也未提出公共擁有AI基礎設施的理念,僅希望政府對收益進行社會化處理——創造財富的晶片、演算法和平台仍牢牢掌握在極少數超級富豪手中。日本媒體對此發出靈魂拷問:當大量價值已轉化為股權和世襲財富時,所謂分紅能否真正惠及普通人?
此外,對於大多數沒有前沿AI企業的國家,若當地工作被自動化取代而利潤集中在少數國家,誰來為這些國家的民眾支付收入?一種可行方案是設立「國際AI紅利基金」,透過對最大AI公司的利潤徵收適度稅款,為受衝擊最嚴重的國家提供資金支持。
適應性策略:過渡期中的價值錨定
個人層面:從技能競賽到決策素養
當知識儲備和記憶能力成為AI的絕對強項,教育的形態必須改變。未來個人與組織的核心競爭力,不是記住多少,而是學習新知、適應新變化的速度。
這意味著教育應從「知識灌輸」轉向「決策素養培養」,包括批判性思考、系統性風險評估、倫理困境辨析、對AI輸出的「校準」與「否決」能力。Forrester預測,2026年30%的大型企業將強制推行AI培訓,以提升員工「AIQ」並降低責任風險。
《2028全球智力危機》報告中揭示的「職位凍結」現象值得關注:企業正在採用更隱蔽的模式——業務成長,但新增任務全交給AI,不再招人。這種做法看似溫和,實則深遠影響勞動力市場的造血能力。沙阿指出,即便是當下財務狀況良好的公司,股價也會下跌——原因很簡單:「如果所有企業都在用AI取代人工來保護利潤率,那麼三年後,誰來買他們的產品?」
社會層面:探索新型社會契約
在制度層面,過渡期需要新的社會契約。可能的政策方向包括:建立終身學習帳戶、完善社會安全網、探索「數據即勞動」的貢獻紀錄與收益返還機制。
UNDP指出,AI的發展軌跡不是由技術進步的速度決定的,而是由「誰從中受益」決定的。這一軌跡並非在發明時刻確定,而是透過關於如何、在何處、為誰使用AI的審慎選擇形成的。從實地經驗看,AI的擴散往往不是透過國家戰略,而是透過日常採購、平台與營運決策累積而成。
宏觀政策框架也需要更新。傳統框架假定要素稀缺性與邊際成本遞增,而AI驅動的邊際成本趨零使通膨測度失準、就業市場面臨「技能—規則」錯配。有專家建議將「演算法替代率」「數位吉尼係數」納入政策函數,從總量調控轉向治理成本與創新收益的動態平衡。
資產層面:所有權視角的分析
基於前述「財富向資本與決策傾斜」的結論,在世代過渡期,個人財富錨定的核心可能從「出售勞動換取現金」轉向「持有生產性資產」的所有權。廣義的「生產性資產」不僅包括傳統的企業股權、不動產,也應包括與AI經濟相關的新型基礎設施——算力、數據所有權,以及具有治理權的平台通證等。
IPPR提出,需要擴大資本分配、豐富所有制模式,以民主化「誰對自動化經濟紅利享有索取權」。具體策略包括公民財富基金、員工所有權信託、新型利潤分享模式等。其核心信念是:新的、多元化的所有制模式,將是確保自動化創造共享繁榮的必要條件。
這一分析並非投資建議,而是對宏觀趨勢的客觀判斷——協助讀者理解資產價值演變的經濟邏輯。正如UNDP所言,關於數據如何生成、共享、保留和重用的決策,決定了機構能否理解AI系統如何產生影響、在問題出現時進行干預,並隨時間推移改進績效。
結論:稀缺性轉移後的社會選擇
AI時代的根本變革,是價值從「執行」向「決策」與「所有權」的轉移。2025年至2075年的「世代過渡期」,挑戰在於如何平穩完成這一結構性轉型。
《2028全球智力危機》報告的作者在回應市場震動時強調:「如果你對AI帶來的顛覆性影響持最樂觀的態度,那麼,接下來會發生什麼?作為一個社會,我們必須正視並認真思考這一事實。」這份報告的價值不在於預測的準確性,而在於它迫使我們去思考那些原本被忽略的問題。
未來的社會形態,無論是走向更集中的「演算法集中」,還是更公平的「所有者社會」,並非由技術單方面決定。目前的關鍵問題不在於「是否發展AI」,而在於「如何發展AI」,以及「誰能從AI中受益」。如果缺乏對關鍵資源的有效治理、對分配結構的前瞻調節、對未來世代的責任安排,那麼即使技術進步本身能夠沿指數級演進,其帶來的福利效應仍可能被結構性風險所抵消。最終,一切技術的終點,應是人的福祉。遵循「以人為本」的根本宗旨,旨在為人類創造一個共同繁榮的社會,便成為AI發展的關鍵目標。


