0G Labs rapporte une percée en IA décentralisée de 107B, mettant en évidence la formation rentable et les plans open-source

En résumé

0G Labs a rapporté avoir entraîné le modèle DiLoCoX de 107 milliards de paramètres — plus grand que le système de Bittensor — en utilisant une approche décentralisée économique, et a commencé à le réentraîner publiquement avec une transparence totale et une sortie open-source prévue.

0G Labs Reports 107B Decentralized AI Breakthrough, Highlighting Cost-Efficient Training And Open-Source Plans0G Labs, un développeur d’infrastructures blockchain pour agents d’intelligence artificielle, a indiqué avoir entraîné un modèle de 107 milliards de paramètres il y a environ huit mois, ce qui représente une échelle environ 48 % plus grande que celle du modèle développé par Bittensor, et constitue le plus grand système d’IA décentralisée documenté à ce jour.

Le modèle, connu sous le nom de DiLoCoX-107B, a été entraîné en juillet 2025 en utilisant une technologie développée en partenariat avec China Mobile, le plus grand opérateur de réseau mobile au monde. Selon une recherche évaluée par des pairs publiée sur arXiv, le système a atteint des niveaux d’efficacité de communication 357 fois supérieurs aux méthodes AllReduce conventionnelles lorsqu’il fonctionne sur des connexions Internet standard de 1 Gbps, suggérant que la formation avancée en IA pourrait être réalisable sans dépendre d’une infrastructure de centre de données coûteuse.

Les résultats initiaux de l’entraînement ont montré que les architectures de calcul distribué pouvaient rivaliser avec les approches centralisées au plus haut niveau de développement des modèles. Alors que des entreprises comme OpenAI, Google et Meta investissent massivement dans de grands clusters GPU, 0G Labs a rapporté que son cadre distribué pourrait réduire les coûts d’environ 95 %, selon des chiffres cités par Forbes. Le système fonctionne à travers des nœuds décentralisés connectés via une infrastructure Internet largement disponible.

En comparaison, le modèle Covenant-72B de Bittensor, développé sur son réseau Subnet 3 par un groupe de contributeurs, a été décrit comme une avancée notable dans le domaine de l’IA décentralisée. Cependant, 0G Labs a déclaré que ses travaux antérieurs avaient déjà démontré la faisabilité de l’entraînement de modèles à une échelle plus grande, soutenue par une validation évaluée par des pairs.

L’entreprise a également annoncé qu’elle avait lancé une nouvelle phase impliquant le réentraînement public de DiLoCoX-107B, en insistant sur la transparence et une stratégie de sortie open-source. Cet effort vise à établir des normes plus claires pour les pratiques de développement d’IA vérifiables.

Une fois terminé, le modèle mis à jour devrait être publié avec un accès public complet à ses poids, points de contrôle et benchmarks de performance. Le processus de réentraînement comprendra également une documentation complète, couvrant les sources de données, les métriques d’entraînement et les mécanismes de vérification, y compris la validation basée sur un environnement d’exécution de confiance.

Infrastructure complète pour une IA vérifiable

Contrairement aux systèmes principalement développés à des fins expérimentales, DiLoCoX-107B est intégré dans une infrastructure blockchain plus large conçue pour les agents d’IA. Cela inclut une pile prête pour la production avec une blockchain de couche un compatible EVM, des ressources de calcul décentralisées, des capacités de stockage distribué, et une couche de disponibilité des données haute performance, considérée comme beaucoup plus rapide et économique que des solutions comparables telles que celles associées à Ethereum.

L’entreprise a déclaré que cette infrastructure vise non seulement à soutenir la formation de modèles, mais aussi l’inférence vérifiable, le stockage sécurisé et les processus de règlement sur la chaîne, reflétant les exigences opérationnelles plus larges pour les écosystèmes d’agents d’IA.

Le système intègre plusieurs approches techniques, notamment le parallélisme en pipeline, la coordination de double optimiseur entre mises à jour locales et globales, la synchronisation différée pour permettre une formation continue, et la compression adaptative des gradients pour réduire la surcharge de communication tout en maintenant la précision des performances.

0G Labs a indiqué que le processus de réentraînement est en cours et que toutes les données, méthodologies et résultats pertinents seront divulgués tout au long de sa progression. Le modèle final devrait être publié sous une licence open-source, avec un accès complet aux artefacts de formation.

0G-0,36%
TAO11,09%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler