Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
0G Labs Relata Progresso Revolucionário em IA Descentralizada de 107B, Destacando Treino Eficiente em Custos e Planos de Código Aberto
Resumidamente
0G Labs anunciou que treinou o modelo DiLoCoX de 107 bilhões de parâmetros—mais grande do que o sistema da Bittensor—usando uma abordagem descentralizada eficiente em custos, e iniciou o retraining aberto com total transparência e planeamento de lançamento de código aberto.
O modelo, conhecido como DiLoCoX-107B, foi treinado em julho de 2025 usando tecnologia desenvolvida em parceria com a China Mobile, a maior operadora de rede móvel do mundo. Segundo uma pesquisa revisada por pares publicada no arXiv, o sistema atingiu níveis de eficiência de comunicação 357 vezes superiores aos métodos tradicionais AllReduce ao operar sobre conexões de internet padrão de 1 Gbps, sugerindo que o treinamento avançado de IA pode ser viável sem depender de infraestrutura de data center de alto custo.
Os resultados iniciais indicaram que arquiteturas de computação distribuída podem competir com abordagens centralizadas nos níveis mais altos de desenvolvimento de modelos. Enquanto empresas como OpenAI, Google e Meta investem pesadamente em grandes clusters de GPU, a 0G Labs relatou que sua estrutura distribuída poderia reduzir custos em aproximadamente 95%, com base em dados citados pela Forbes. O sistema opera através de nós descentralizados conectados por infraestrutura de internet amplamente disponível.
Em comparação, o modelo Covenant-72B da Bittensor, desenvolvido na sua rede Subnet 3 por um grupo de colaboradores, foi descrito como um avanço notável no campo de IA descentralizada. No entanto, a 0G Labs afirmou que seu trabalho anterior já demonstrou a viabilidade de treinar modelos em maior escala, apoiado por validação revisada por pares.
A empresa anunciou ainda que iniciou uma nova fase envolvendo o retraining público do DiLoCoX-107B, enfatizando transparência e uma estratégia de lançamento de código aberto. Este esforço visa estabelecer padrões mais claros para práticas verificáveis de desenvolvimento de IA.
Infraestrutura Completa para IA Verificável
Ao contrário de sistemas desenvolvidos principalmente para fins experimentais, o DiLoCoX-107B está integrado numa infraestrutura mais ampla baseada em blockchain, projetada para agentes de IA. Isto inclui uma pilha de produção com uma blockchain de camada um compatível com EVM, recursos de computação descentralizada, capacidades de armazenamento distribuído e uma camada de disponibilidade de dados de alto desempenho, posicionada como significativamente mais rápida e mais econômica do que soluções comparáveis, como as associadas à Ethereum.
A empresa afirmou que essa infraestrutura destina-se a suportar não apenas o treinamento de modelos, mas também inferência verificável, armazenamento seguro e processos de liquidação na cadeia, refletindo requisitos operacionais mais amplos para ecossistemas de agentes de IA.
O sistema incorpora várias abordagens técnicas, incluindo paralelismo de pipeline, coordenação de duplo otimizador entre atualizações locais e globais, sincronização atrasada para permitir treinamento contínuo e compressão adaptativa de gradiente para reduzir a sobrecarga de comunicação, mantendo a precisão do desempenho.
A 0G Labs indicou que o processo de retraining está atualmente em andamento e que todos os dados, metodologias e resultados relevantes serão divulgados ao longo de sua duração. O modelo final deverá ser lançado sob uma licença de código aberto, com acesso completo aos artefatos de treinamento.