Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
0G Labs rapporte une percée en IA décentralisée de 107B, mettant en évidence la formation rentable et les plans open-source
En résumé
0G Labs a rapporté avoir entraîné le modèle DiLoCoX de 107 milliards de paramètres — plus grand que le système de Bittensor — en utilisant une approche décentralisée économique, et a commencé à le réentraîner publiquement avec une transparence totale et une sortie open-source prévue.
Le modèle, connu sous le nom de DiLoCoX-107B, a été entraîné en juillet 2025 en utilisant une technologie développée en partenariat avec China Mobile, le plus grand opérateur de réseau mobile au monde. Selon une recherche évaluée par des pairs publiée sur arXiv, le système a atteint des niveaux d’efficacité de communication 357 fois supérieurs aux méthodes AllReduce conventionnelles lorsqu’il fonctionne sur des connexions Internet standard de 1 Gbps, suggérant que la formation avancée en IA pourrait être réalisable sans dépendre d’une infrastructure de centre de données coûteuse.
Les résultats initiaux de l’entraînement ont montré que les architectures de calcul distribué pouvaient rivaliser avec les approches centralisées au plus haut niveau de développement des modèles. Alors que des entreprises comme OpenAI, Google et Meta investissent massivement dans de grands clusters GPU, 0G Labs a rapporté que son cadre distribué pourrait réduire les coûts d’environ 95 %, selon des chiffres cités par Forbes. Le système fonctionne à travers des nœuds décentralisés connectés via une infrastructure Internet largement disponible.
En comparaison, le modèle Covenant-72B de Bittensor, développé sur son réseau Subnet 3 par un groupe de contributeurs, a été décrit comme une avancée notable dans le domaine de l’IA décentralisée. Cependant, 0G Labs a déclaré que ses travaux antérieurs avaient déjà démontré la faisabilité de l’entraînement de modèles à une échelle plus grande, soutenue par une validation évaluée par des pairs.
L’entreprise a également annoncé qu’elle avait lancé une nouvelle phase impliquant le réentraînement public de DiLoCoX-107B, en insistant sur la transparence et une stratégie de sortie open-source. Cet effort vise à établir des normes plus claires pour les pratiques de développement d’IA vérifiables.
Infrastructure complète pour une IA vérifiable
Contrairement aux systèmes principalement développés à des fins expérimentales, DiLoCoX-107B est intégré dans une infrastructure blockchain plus large conçue pour les agents d’IA. Cela inclut une pile prête pour la production avec une blockchain de couche un compatible EVM, des ressources de calcul décentralisées, des capacités de stockage distribué, et une couche de disponibilité des données haute performance, considérée comme beaucoup plus rapide et économique que des solutions comparables telles que celles associées à Ethereum.
L’entreprise a déclaré que cette infrastructure vise non seulement à soutenir la formation de modèles, mais aussi l’inférence vérifiable, le stockage sécurisé et les processus de règlement sur la chaîne, reflétant les exigences opérationnelles plus larges pour les écosystèmes d’agents d’IA.
Le système intègre plusieurs approches techniques, notamment le parallélisme en pipeline, la coordination de double optimiseur entre mises à jour locales et globales, la synchronisation différée pour permettre une formation continue, et la compression adaptative des gradients pour réduire la surcharge de communication tout en maintenant la précision des performances.
0G Labs a indiqué que le processus de réentraînement est en cours et que toutes les données, méthodologies et résultats pertinents seront divulgués tout au long de sa progression. Le modèle final devrait être publié sous une licence open-source, avec un accès complet aux artefacts de formation.