Tin cổng, ngày 24 tháng 4 — DeepSeek đã phát hành loạt mô hình mã nguồn mở V4 theo Giấy phép MIT, với trọng số hiện đã có trên Hugging Face và ModelScope. Loạt này bao gồm hai mô hình (MoE) dạng mixture-of-experts: V4-Pro với 1,6 nghìn tỷ tham số tổng và 49 tỷ tham số được kích hoạt mỗi token, và V4-Flash với 284 tỷ tham số tổng và 13 tỷ tham số được kích hoạt mỗi token. Cả hai đều hỗ trợ cửa sổ ngữ cảnh 1 triệu token.
Kiến trúc có ba nâng cấp chính: một cơ chế attention lai kết hợp attention thưa nén (CSA) và attention nén mạnh (HCA), giúp giảm đáng kể chi phí phát sinh cho ngữ cảnh dài—FLOPs suy luận của V4-Pro cho ngữ cảnh 1M chỉ bằng 27% của V3.2, và bộ nhớ đệm KV (VRAM) để lưu thông tin lịch sử trong quá trình suy luận( chỉ bằng 10% của V3.2; các siêu liên kết ràng buộc đa tạp )mHC( thay thế các kết nối residual truyền thống để tăng cường độ ổn định lan truyền tín hiệu giữa các lớp; và bộ tối ưu hóa Muon để hội tụ huấn luyện nhanh hơn. Tiền huấn luyện sử dụng hơn 32 nghìn tỷ token dữ liệu.
Hậu huấn luyện áp dụng phương pháp hai giai đoạn: đầu tiên huấn luyện các chuyên gia theo miền thông qua supervised fine-tuning )SFT( và học tăng cường GRPO, sau đó hợp nhất chúng thành một mô hình thông qua chưng cất trực tuyến. V4-Pro-Max )highest inference mode tuyên bố là mô hình mã nguồn mở mạnh nhất với các bộ đánh giá mã hóa hàng đầu và khoảng cách thu hẹp đáng kể so với các mô hình “biên” mã nguồn đóng về các tác vụ suy luận và tác nhân. V4-Flash-Max đạt hiệu năng suy luận tầm Pro với đủ ngân sách tính toán nhưng bị giới hạn bởi quy mô tham số đối với kiến thức thuần túy và các tác vụ tác nhân phức tạp. Trọng số được lưu ở độ chính xác kết hợp FP4+FP8.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Web3 AI Infrastructure AIW3 huy động $2M trong vòng seed do Buffalo Capital dẫn dắt
Tin tức từ Gate, ngày 24 tháng 4 — Nền tảng hạ tầng Web3 AI AIW3 thông báo hoàn tất vòng gọi vốn seed trị giá $2 triệu đô la. Vòng này do Buffalo Capital dẫn dắt, với GalaXin Capital và Three-stones Ventures tham gia với vai trò đồng đầu tư.
AIW3 đang chuyển dịch sang mô hình thực thi trên chuỗi Agent-as-a-Service
GateNews7phút trước
Cohere Mua Lại Công Ty AI của Đức Aleph Alpha, Nhận Được $600M Đầu Tư để Mở Rộng Tại Châu Âu
Tin tức Gate, ngày 24 tháng 4 — Công ty AI của Canada Cohere đã công bố kế hoạch mua lại công ty AI của Đức Aleph Alpha để củng cố sự hiện diện của mình tại châu Âu. Schwarz Group, một nhà đầu tư hậu thuẫn của Aleph Alpha, dự kiến sẽ đầu tư $600 triệu USD vào vòng gọi vốn Series E của Cohere.
Vòng gọi vốn dự kiến sẽ được hoàn tất vào năm 202
GateNews48phút trước
Xpeng, Xiaomi dẫn đầu làn sóng AI trên xe tại Triển lãm Ô tô Bắc Kinh
Tin tức cổng, 24 tháng 4 — Các nhà sản xuất ô tô Trung Quốc đã trưng bày các hệ thống AI nâng cao trên xe tại Triển lãm Ô tô Bắc Kinh vào ngày 24 tháng 4, khi quốc gia này đẩy nhanh chiến lược AI Plus và tìm kiếm mức độ độc lập cao hơn khỏi các chất bán dẫn nước ngoài.
Xpeng đã trình diễn tính năng đỗ xe điều khiển bằng giọng nói cho phép người lái xe “
GateNews1giờ trước
Cựu kỹ sư Seed của ByteDance: Lượt lặp AI của ByteDance mất sáu tháng so với ba tháng của Google
Tin tức Cổng, ngày 24 tháng 4 — Zhang Chi, cựu kỹ sư tại đội Seed của ByteDance và hiện là trợ giảng tại Đại học Bắc Kinh, đã tiết lộ trên podcast "Into Asia" rằng ByteDance cần khoảng sáu tháng để hoàn thành một chu kỳ đầy đủ huấn luyện mô hình ngôn ngữ lớn (pretraining
GateNews1giờ trước
Kỹ sư OpenAI Clive Chan Thách thức Khuyến nghị Phần cứng của V4, Trích dẫn Lỗi và Tính Mơ hồ so với V3
Tin tức cổng Gate, ngày 24 tháng 4 — Kỹ sư OpenAI Clive Chan đã đưa ra những phản đối chi tiết đối với chương khuyến nghị phần cứng trong báo cáo kỹ thuật V4, gọi chương này là "đáng ngạc nhiên là tầm thường và dễ gây lỗi" so với phiên bản V3 được ca ngợi. Hướng dẫn phần cứng của V3, bao gồm các buổi Q&A
GateNews2giờ trước
Naver Ra Mắt Bản Beta AI Tab Khi Google Gemini Bước Vào Thị Trường Tìm Kiếm Tại Hàn Quốc
Tin tức Cổng, ngày 24 tháng 4 — Naver đã công bố việc bắt đầu thử nghiệm beta kín cho AI Tab, tính năng tìm kiếm hội thoại mới của hãng, sau khi Google ra mắt Gemini trên Chrome tại Hàn Quốc.
AI Tab sẽ xuất hiện cùng với các tab tìm kiếm hiện có của Naver, cung cấp cho người dùng một không gian riêng cho các truy vấn mang tính hội thoại
GateNews2giờ trước