Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
0G Labs Báo Cáo Bước Đột Phá AI Phi Tập Trung 107B, Nêu Bật Đào Tạo Hiệu Quả Chi Phí Và Kế Hoạch Mã Nguồn Mở
Tóm tắt
0G Labs đã báo cáo việc huấn luyện mô hình DiLoCoX 107B tham số — lớn hơn hệ thống của Bittensor — bằng phương pháp phi tập trung tiết kiệm chi phí, và đã bắt đầu huấn luyện lại công khai với sự minh bạch đầy đủ và kế hoạch phát hành mã nguồn mở.
Mô hình này, gọi là DiLoCoX-107B, được huấn luyện vào tháng 7 năm 2025 bằng công nghệ phát triển cùng với China Mobile, nhà mạng di động lớn nhất thế giới. Theo nghiên cứu đã được bình duyệt đăng trên arXiv, hệ thống đạt mức hiệu quả truyền thông cao gấp 357 lần so với các phương pháp AllReduce truyền thống khi hoạt động qua kết nối internet tiêu chuẩn 1 Gbps, cho thấy rằng việc huấn luyện AI tiên tiến có thể khả thi mà không cần dựa vào hạ tầng trung tâm dữ liệu đắt đỏ.
Kết quả ban đầu cho thấy kiến trúc tính toán phân tán có thể cạnh tranh với các phương pháp tập trung ở cấp độ phát triển mô hình cao nhất. Trong khi các công ty như OpenAI, Google và Meta đầu tư lớn vào các cụm GPU quy mô lớn, 0G Labs cho biết hệ thống phân tán của họ có thể giảm chi phí khoảng 95%, dựa trên số liệu do Forbes trích dẫn. Hệ thống hoạt động trên các nút phi tập trung kết nối qua hạ tầng internet phổ biến.
So với đó, mô hình Covenant-72B của Bittensor, được phát triển trên mạng lưới Subnet 3 bởi một nhóm cộng tác viên, đã được mô tả là bước tiến đáng chú ý trong lĩnh vực AI phi tập trung. Tuy nhiên, 0G Labs cho biết công trình trước đó của họ đã chứng minh khả năng huấn luyện các mô hình quy mô lớn hơn, được xác thực qua các nghiên cứu bình duyệt.
Công ty cũng thông báo rằng họ đã bắt đầu giai đoạn mới liên quan đến việc huấn luyện lại DiLoCoX-107B công khai, nhấn mạnh tính minh bạch và chiến lược phát hành mã nguồn mở. Nỗ lực này nhằm thiết lập các tiêu chuẩn rõ ràng hơn cho các thực hành phát triển AI có thể xác minh.
Hạ tầng toàn diện cho AI có thể xác minh
Khác với các hệ thống chủ yếu phát triển cho mục đích thử nghiệm, DiLoCoX-107B được tích hợp vào hạ tầng dựa trên blockchain rộng hơn, thiết kế dành cho các tác nhân AI. Điều này bao gồm một hệ thống sẵn sàng sản xuất với lớp blockchain phù hợp EVM, tài nguyên tính toán phi tập trung, khả năng lưu trữ phân tán và lớp sẵn sàng dữ liệu hiệu suất cao, được định vị là nhanh hơn và tiết kiệm chi phí hơn so với các giải pháp tương tự như Ethereum.
Công ty cho biết hạ tầng này nhằm hỗ trợ không chỉ huấn luyện mô hình mà còn cả suy luận có thể xác minh, lưu trữ an toàn và các quy trình thanh toán trên chuỗi, phản ánh các yêu cầu vận hành rộng hơn cho hệ sinh thái tác nhân AI.
Hệ thống tích hợp nhiều phương pháp kỹ thuật, bao gồm song song pipeline, phối hợp tối ưu kép giữa cập nhật cục bộ và toàn cục, đồng bộ trễ để cho phép huấn luyện liên tục, và nén gradient thích ứng để giảm thiểu overhead truyền thông trong khi duy trì độ chính xác của hiệu suất.
0G Labs cho biết quá trình huấn luyện lại hiện đang diễn ra và tất cả dữ liệu, phương pháp và kết quả liên quan sẽ được công bố trong suốt quá trình. Mô hình cuối cùng dự kiến sẽ được phát hành theo giấy phép mã nguồn mở, với quyền truy cập đầy đủ vào các tài liệu huấn luyện.