Kết quả tìm kiếm cho "MOE"
2026-04-03
02:21

Google phát hành mô hình đa phương thức Gemma 4, hỗ trợ hơn 140 ngôn ngữ

Google đã phát hành mô hình đa phương thức Gemma 4 vào ngày 3 tháng 4, hỗ trợ đầu vào dạng văn bản, hình ảnh và âm thanh, đồng thời tạo ra đầu ra dạng văn bản. Cửa sổ ngữ cảnh của nó có thể chứa 256.000 token, hỗ trợ 140 ngôn ngữ và phù hợp với nhiều môi trường, bao gồm bốn loại mô hình với các quy mô khác nhau.
Xem thêm
02:27

Meituan mở nguồn mô hình chứng minh định lý với 560 tỷ tham số, 72 lần suy luận đạt tỷ lệ thành công 97,1%, thiết lập lại SOTA nguồn mở

Nhóm LongCat của Meituan đã mã nguồn mở LongCat-Flash-Prover vào ngày 21 tháng 3, một mô hình MoE với 5600 tỷ tham số, tập trung vào chứng minh định lý hình thức Lean4. Mô hình được chia thành ba khả năng: hình thức hóa tự động, tạo bản phác thảo và tạo chứng minh hoàn chỉnh, kết hợp các công cụ suy luận với trình biên dịch Lean4 để thực hiện xác minh thời gian thực. Quá trình đào tạo sử dụng Khung lặp Hybrid-Experts và thuật toán HisPO để ngăn chặn gian lận phần thưởng. Các bài kiểm tra tiêu chuẩn cho thấy mô hình này đã thiết lập kỷ lục mới cho các mô hình trọng số mã nguồn mở trong lĩnh vực hình thức hóa tự động và chứng minh định lý.
Xem thêm
08:53

Rakuten phát hành mô hình Rakuten AI 3.0, tệp cấu hình cho thấy kiến trúc cơ bản là DeepSeek V3

Tập đoàn Rakuten ngày 17 tháng 3 đã công bố mô hình AI hiệu suất cao mang tên Rakuten AI 3.0, có 671 tỷ tham số, được tối ưu hóa cho tiếng Nhật, và tuyên bố vượt qua GPT-4o trong nhiều bài kiểm tra chuẩn. Mô hình này được mở mã nguồn miễn phí theo giấy phép Apache 2.0, dựa trên việc tinh chỉnh từ mô hình DeepSeek V3, và nhận được sự hỗ trợ về năng lực huấn luyện từ chính phủ Nhật Bản.
Xem thêm
06:55

Mistral AI phát hành Leanstral: Agent mã nguồn mở Lean 4 đầu tiên, có thể tự động xuất bản chứng minh hình thức

Mistral AI phát hành Leanstral, một mã tác nhân nguồn mở, được thiết kế đặc biệt cho xác minh hóa hình thức Lean 4, có khả năng tạo mã và chứng minh có thể được tự động xác thực. Mô hình sử dụng kiến trúc MoE thưa thớt, hoạt động vượt trội so với các mô hình hàng đầu khác, và cung cấp tải xuống miễn phí và gọi API.
Xem thêm
02:57

Zhipu AI phát hành mô hình GLM-5-Turbo, tốc độ tăng 2-3 lần, giá API tăng 20%

Zhipu AI đã phát hành mô hình GLM-5-Turbo vào ngày 16 tháng 3, như một phiên bản tối ưu hóa tốc độ cao của GLM-5, được tùy chỉnh riêng cho kịch bản OpenClaw agent. Mô hình này nâng cao tốc độ 2 đến 3 lần, hỗ trợ ngữ cảnh 200K và đầu ra tối đa 128K, tối ưu hóa tính ổn định gọi công cụ và các khía cạnh khác. Trong đánh giá, nó thể hiện hiệu suất vượt trội hơn đáng kể so với GLM-5, đồng thời nâng cao giá API và phát hành gói đăng ký cho người dùng cá nhân.
Xem thêm
01:27

NVIDIA mở nguồn mô hình trí tuệ nhân tạo 120B Nemotron 3 Super, tăng khả năng xử lý tối đa gấp 5 lần

Nvidia ngày 12 tháng 3 đã phát hành mô hình ngôn ngữ lớn mã nguồn mở Nemotron 3 Super, được thiết kế cho các ứng dụng đa tác nhân, với số lượng tham số đạt 1200 tỷ, hiệu suất suy luận rõ ràng được nâng cao, hỗ trợ cửa sổ ngữ cảnh dài tới 1 triệu token. Mô hình này đạt điểm 85.6% trong bài kiểm tra chuẩn PinchBench, cao nhất trong cùng loại, đã ra mắt trên nhiều nền tảng và hỗ trợ triển khai dịch vụ đám mây đa dạng.
Xem thêm
03:44

Genius Group đã đệ đơn kiện 450 triệu USD đối với các giám đốc điều hành LZGI

Theo tin tức từ Gate.io News bot, theo báo cáo của Wu, công ty niêm yết trên sàn giao dịch New York Genius Group đã đệ đơn kiện hai giám đốc điều hành của LZGI International, Inc là Peter Ritz và Michael Moe tại Tòa án Quận phía Nam Florida. Đơn kiện dựa trên Đạo luật Chống gian lận và Tổ chức tham nhũng của Mỹ (RICO), với số tiền bồi thường lên đến 450 triệu đô la. Trước đó, Tòa án quận New York đã ban hành lệnh cấm đối với Genius Group, cấm họ huy động vốn bằng cách bán cổ phiếu để mua Bitcoin.
Xem thêm
BTC1,18%