0G Labs 报告 107B 去中心化 AI 突破,强调成本高效的训练和开源计划

简要概述

0G Labs 报告称,使用高效的去中心化方法训练了参数规模达1070亿的DiLoCoX模型——比Bittensor的系统还要大——并已开始公开重新训练,完全透明,计划开源发布。

0G Labs Reports 107B Decentralized AI Breakthrough, Highlighting Cost-Efficient Training And Open-Source Plans0G Labs是一家为人工智能代理开发区块链基础设施的公司,约在八个月前训练出了一个拥有1070亿参数的模型,规模比Bittensor开发的模型大约多48%,是迄今为止记录中最大的去中心化AI系统。

该模型名为DiLoCoX-107B,于2025年7月采用与中国移动合作开发的技术进行训练。根据在arXiv上发表的同行评审研究,该系统在标准1 Gbps互联网连接下的通信效率比传统AllReduce方法高出357倍,表明无需依赖高成本的数据中心基础设施,先进的AI训练可能成为现实。

初步训练结果显示,分布式计算架构可以在模型开发的最高阶段与集中式方法竞争。虽然OpenAI、Google和Meta等公司在大规模GPU集群上投入巨大,0G Labs表示其分布式框架可以将成本降低约95%,据福布斯报道。该系统通过广泛可用的互联网基础设施连接去中心化节点运行。

相比之下,Bittensor的Covenant-72B模型由其Subnet 3网络的贡献者开发,被描述为去中心化AI领域的一个重要突破。然而,0G Labs表示,其早期工作已证明在更大规模上训练模型的可行性,并得到了同行评审的验证。

公司还宣布已启动一个新阶段,涉及对DiLoCoX-107B的公开再训练,强调透明度和开源策略。此举旨在建立更明确的可验证AI开发实践标准。

完成后,更新的模型预计将以完全公开的形式发布,包括其权重、检查点和性能基准。再训练过程还将包括全面的文档,涵盖数据来源、训练指标和验证机制,包括基于可信执行环境的验证。

可验证AI的全栈基础设施

与主要为实验目的开发的系统不同,DiLoCoX-107B集成在一个更广泛的区块链基础设施中,专为AI代理设计。这包括一个生产就绪的堆栈,具有兼容EVM的第一层区块链、去中心化计算资源、分布式存储能力,以及一个高性能的数据可用性层,其速度和成本效率远超如以太坊等类似方案。

公司表示,此类基础设施旨在支持模型训练、可验证推理、安全存储和链上结算等多项操作,反映出AI代理生态系统的更广泛运营需求。

该系统采用多种技术方案,包括流水线并行、双优化器协调本地与全局更新、延迟同步以实现持续训练,以及自适应梯度压缩以减少通信开销同时保持性能准确性。

0G Labs指出,重新训练工作正在进行中,所有相关数据、方法和结果将在整个过程中披露。最终模型预计将以开源许可证发布,提供完整的训练工件访问权限。

0G0.15%
TAO9.96%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论