2026 年 2 月,一份名为《2028 全球智力危机》(The 2028 Global Intelligence Crisis)的研究报告在金融市场引发广泛关注。这份由 Citrini Research 发布的宏观情景推演,虚构了从当下到 2028 年的经济演变路径:美国失业率突破 10%,标普 500 指数自高点回撤 38%,一场由 AI 驱动的结构性危机悄然降临。
报告描绘了一个令人警醒的图景:当 AI 代理能够以边际成本趋近于零的方式完成复杂白领工作时,软件服务、金融中介、专业咨询等行业的商业模式被系统性瓦解。企业用裁员节省的资金购买更多 AI 算力,进一步裁员,形成”没有自然刹车的反馈循环”。经济产出依然增长,却不再流向人类消费部门——报告称之为”幽灵 GDP”(Ghost GDP)。
这份报告之所以引发震动,并非因其预测的准确性,而是因为它触及了一个根本性问题:当机器智能逐渐替代人类智能这一曾经最稀缺的生产要素时,现有的经济理论框架是否依然适用?正如报告联合作者阿拉普·沙阿在接受采访时强调:”这不是预测,而是基于长期模型的压力测试——如果 AI 真的像大家期待的那样持续变强,哪些商业逻辑会最先行不通?”
本文以此为起点,构建”挑战—趋势—影响—应对”的分析框架,聚焦 2025 年至 2075 年的”代际过渡期”,探讨当”执行力”成本趋近于零时,生产要素的稀缺性结构如何转移,财富分配与社会契约将如何演化。
价值重估:生产要素的稀缺性转移
执行力成本的归零趋势
“执行力”指可被算法化、流程化的重复性脑力与体力劳动——基础编程、财务核算、内容生成等。AI 正在将这类执行的边际成本推向趋近于零。《2028 全球智力危机》报告中描绘的场景:印度 IT 服务业每年超过 2,000 亿美元的出口收入面临挑战,因为全球客户开始转向成本仅为电费的 AI 编码代理。报告指出:”整个模式建立在一个价值主张上——印度开发者的成本仅为美国同行的几分之一。但 AI 编码代理的边际成本已经崩塌到,本质上,就是电费。”
这一趋势已获得数据支撑。美国 IT 行业的就业人数从 2022 年高点到 2026 年初累计下降 8%。这一行业正是 AI 渗透最快的领域。沙阿指出:”一个行业越容易把工作交给 AI,岗位减少就越明显。而最容易被替代的,正是白领工作。”信息处理、数据分析、流程审批——这些过去需要高学历、高收入人群完成的工作,现在 AI 都能以极低成本完成。
从经济学视角审视,这本质上是生产要素相对稀缺性的结构性调整。张晓晶、李晶晶在《金融评论》撰文指出,AI 正引发”稀缺性转移”——主导资源类型的相对稀缺性结构在技术变革背景下的调整,其内涵包括新型无形资本(数据、算法与算力等)权重上升,同时部分劳动要素的稀缺性地位被削弱。
决策权的稀缺性价值上升
与执行力成本下降相伴的,是”决策权”价值的凸显。决策权包括:在信息不完备下承担风险、进行资源分配、设定目标、处理伦理困境、对 AI 输出进行批判性评估与最终裁决的能力。
经济学中的企业家精神理论早已揭示:决策与风险承担是利润的根本来源。当执行力供给无限时,其价格(工资)趋零,与之互补的”决策”成为瓶颈要素,其价值(租金/利润)必然上升。这正是”稀缺性转移”的另一面——AI 系统具备自动化复杂认知任务的能力,削弱了人力在信息处理领域的稀缺性地位,但同时催生出新的稀缺性来源。
在组织层面,AI 正在重塑决策机制。规则清晰、数据充足、重复发生的决策最易被 AI 替代;而在更高风险、需要负责的决策上,AI 更多作为”思考伙伴”出现。一项基于蒙特卡洛模拟的研究表明,在复杂情境中,人机协作策略能产生最高经济效用,但前提是实现真正的”增强”(augmentation);若未能实现协同,人机协作的表现可能比纯机器或纯人类策略更差。
结构相变:收入分配格局的演化逻辑
从劳动收入到资本与决策收入
AI 正在改变收入分配的基础结构。IPPR 的分析显示,英国与具备技术自动化潜力的工作岗位相关的工资总额达 2,900 亿英镑,占工资总额的三分之一。若自动化导致平均工资下降或工时减少,相当部分的国民收入将从劳动转向资本。
《2028 全球智力危机》报告描绘了这一趋势的极端后果:劳动力占 GDP 的比例从 2024 年的 56% 锐减至 2028 年情境中的 46%。财富越来越集中在”算力与资本的所有者”手中,而劳动收入持续萎缩。这并非技术性失业的简单重复,而是价值创造与价值分配的脱钩——“机器不必花钱消费”,当产出增长不再转化为消费能力,经济循环的基础开始动摇。
AI 时代的分配极化根植于新型无形资本的稀缺,其持续强化的边际价值和集中占有,重构了现代经济的要素分配逻辑。当资本所有权的分布高度不均时,资本收入份额的上升必然加剧不平等——“谁拥有机器人,谁就将拥有越来越大的国民财富份额”。
这一影响正从局部行业向整体经济扩散。沙阿指出,收入排在前 20% 的群体贡献了全美约 65% 的消费支出。若白领收入出问题,整条消费链的现金流将随之承压。报告推演了一个具体场景:5% 的白领失业,带来的消费下跌可能远超 5%——一名年薪 15 万美元的产品经理失业后转向零工经济,收入降幅可能超过 70%。
AI 收益社会化的政策讨论
当 AI 成为社会核心生产力,其产生的巨大收益是否需要通过某种机制进行二次分配?这一问题的讨论正在升温。Baker Tilly 的专家指出:”要让 AI 驱动的经济蓬勃发展,社会必须确保消费者保持购买力。某种形式的全民基本收入或变体,可以提供这一安全网。”
科技巨头已提出多种类似设想。OpenAI 首席执行官萨姆·奥尔特曼提出”美国平等基金”,计划对大公司和私人土地征收 2.5% 的税,为每位美国成年人发放年度股息。微软消费者 AI 业务负责人穆斯塔法·苏莱曼主张”普遍基本服务”,将获取强大 AI 系统视为基本权利。
但这些设想面临多重质疑。深入审视可以发现,奥尔特曼的方案并未主张让工人控制 OpenAI,也未提出公共拥有 AI 基础设施的理念,仅希望政府对收益进行社会化处理——创造财富的芯片、算法和平台仍牢牢掌握在极少数超级富豪手中。日本媒体对此发出灵魂拷问:当大量价值已转化为股权和世袭财富时,所谓分红能否真正惠及普通人?
此外,对于大多数没有前沿 AI 企业的国家,若当地工作被自动化取代而利润集中在少数国家,谁来为这些国家的民众支付收入?一种可行方案是设立”国际 AI 红利基金”,通过对最大 AI 公司的利润征收适度税款,为受冲击最严重的国家提供资金支持。
适应性策略:过渡期中的价值锚定
个人层面:从技能竞赛到决策素养
当知识储备和记忆能力成为 AI 的绝对强项,教育的形态必须改变。未来个人和组织的核心竞争力,不是记住多少,而是学习新知识、适应新变化的速度。
这意味着教育应从”知识灌输”转向”决策素养培养”,包括批判性思维、系统性风险评估、伦理困境辨析、对 AI 输出的”校准”与”否决”能力。Forrester 预测,2026 年 30% 的大型企业将强制推行 AI 培训,以提升员工”AIQ”并降低责任风险。
《2028 全球智力危机》报告中揭示的”岗位冻结”现象值得关注:企业正在采用更隐蔽的模式——业务增长,但新增任务全交给 AI,不再招人。这种做法看似温和,实则深远影响劳动力市场的造血能力。沙阿指出,即便是当下财务状况良好的公司,股价也会下跌——原因很简单:”如果所有企业都在用 AI 替代人工来保护利润率,那么三年后,谁来买他们的产品?”
社会层面:探索新型社会契约
在制度层面,过渡期需要新的社会契约。可能的政策方向包括:建立终身学习账户、完善社会安全网、探索”数据即劳动”的贡献记录与收益返还机制。
UNDP 指出,AI 的发展轨迹不是由技术进步的速度决定的,而是由”谁从中受益”决定的。这一轨迹并非在发明时刻确定,而是通过关于如何、在何处、为谁使用 AI 的审慎选择形成的。从实地经验看,AI 的扩散往往不是通过国家战略,而是通过日常采购、平台和运营决策累积而成。
宏观政策框架也需要更新。传统框架假定要素稀缺性与边际成本递增,而 AI 驱动的边际成本趋零使通胀测度失准、就业市场面临”技能—规则”错配。有专家建议将”算法替代率””数字基尼系数”纳入政策函数,从总量调控转向治理成本与创新收益的动态平衡。
资产层面:所有权视角的分析
基于前述”财富向资本与决策倾斜”的结论,在代际过渡期,个人财富锚定的核心可能从”出售劳动换取现金”转向”持有生产性资产”的所有权。广义的”生产性资产”不仅包括传统的企业股权、房地产,也应包括与 AI 经济相关的新型基础设施——算力、数据所有权、以及具有治理权的平台通证等。
IPPR 提出,需要扩大资本分配、丰富所有制模式,以民主化”谁对自动化经济红利享有索取权”。具体策略包括公民财富基金、员工所有权信托、新型利润分享模式等。其核心信念是:新的、多元化的所有制模式,将是确保自动化创造共享繁荣的必要条件。
这一分析并非投资建议,而是对宏观趋势的客观判断——帮助读者理解资产价值演变的经济逻辑。正如 UNDP 所言,关于数据如何生成、共享、保留和重用的决策,决定了机构能否理解 AI 系统如何产生影响、在问题出现时进行干预、并随时间推移改进绩效。
结论:稀缺性转移后的社会选择
AI 时代的根本变革,是价值从”执行”向”决策”与”所有权”的转移。2025 年至 2075 年的”代际过渡期”,挑战在于如何平稳完成这一结构性转型。
《2028 全球智力危机》报告的作者在回应市场震动时强调:”如果你对 AI 带来的颠覆性影响持最乐观的态度,那么,接下来会发生什么?作为一个社会,我们必须正视并认真思考这一事实。”这份报告的价值不在于预测的准确性,而在于它迫使我们去思考那些原本被忽略的问题。
未来的社会形态,无论是走向更集中的”算法集中”,还是更公平的”所有者社会”,并非由技术单方面决定。当前的关键问题不在于”是否发展 AI”,而在于”如何发展 AI”,以及”谁能从 AI 中受益”。如果缺乏对关键资源的有效治理、对分配结构的前瞻调节、对未来世代的责任安排,那么即使技术进步本身能够沿指数级演进,其带来的福利效应仍可能被结构性风险所抵消。最终,一切技术的终点,应是人的福祉。遵循”以人为本”的根本宗旨,旨在为人类创造一个共同繁荣的社会,便成为 AI 发展的关键目标。


