Trưởng bộ phận mô hình AI của Xiaomi: Cuộc cạnh tranh AI đang chuyển sang thời đại Agent; tự tiến hóa là sự kiện then chốt dẫn tới AGI

AI自進化

Trưởng nhóm của đội ngũ mô hình lớn Xiaomi, La Fu-li, vào ngày 24 tháng 4 đã có một cuộc phỏng vấn chuyên sâu trên nền tảng Bilibili (mã video: BV1iVoVBgERD); thời lượng phỏng vấn là 3,5 giờ. Đây là lần đầu tiên bà công khai trình bày một cách có hệ thống các quan điểm kỹ thuật của mình với tư cách là người phụ trách kỹ thuật. La Fu-li cho biết, cuộc đua trong lĩnh vực mô hình lớn đã chuyển từ thời đại Chat sang thời đại Agent, đồng thời chỉ ra rằng “tự tiến hoá” sẽ là sự kiện then chốt đối với AGI trong năm tới.

Từ thời đại Chat sang thời đại Agent: phán đoán công nghệ cốt lõi

小米大模型團隊負責人羅福莉訪談

(Nguồn: Bilibili)

Theo những gì La Fu-li đã nêu trong cuộc phỏng vấn Bilibili, bà cho biết trọng tâm cuộc cạnh tranh mô hình lớn năm 2026 đã chuyển từ chất lượng hội thoại đối thoại chung sang năng lực thực thi tự chủ liên tục trong các nhiệm vụ phức tạp. Trong cuộc phỏng vấn, bà nói rằng hiện nay các mô hình hàng đầu đã có thể tự tối ưu hoá trong các nhiệm vụ cụ thể, đồng thời tiếp tục thực thi ổn định trong 2 đến 3 ngày mà không cần con người can thiệp điều chỉnh. Bà nhấn mạnh trong cuộc phỏng vấn rằng, bước đột phá về năng lực “tự tiến hoá” đồng nghĩa với việc hệ thống AI bắt đầu có khả năng tự sửa lỗi, và đồng thời chỉ rõ các yếu tố kỹ thuật như lộ trình công nghệ của Anthropic cũng như các biến số công nghệ như Claude Opus 4.6 sẽ tác động đến toàn bộ hệ sinh thái AI.

Điều chỉnh phân bổ sức mạnh tính toán của Xiaomi và đánh giá chênh lệch thế hệ Pre-train

Theo những gì La Fu-li tiết lộ trong cuộc phỏng vấn, Xiaomi đã thực hiện những điều chỉnh lớn đối với chiến lược phân bổ sức mạnh tính toán. Bà giải thích rằng tỷ lệ sức mạnh tính toán thường dùng trong ngành là Pre-train:Post-train:Inference = 3:5:1, còn chiến lược hiện tại của Xiaomi đã được điều chỉnh thành 3:1:1, nén mạnh tỷ lệ huấn luyện sau, đồng thời tăng đầu tư tài nguyên cho giai đoạn suy luận.

Trong cuộc phỏng vấn, bà giải thích rằng sự thay đổi này bắt nguồn từ việc chiến lược Agent RL Scaling đã trở nên trưởng thành, nên huấn luyện sau không còn cần phải “xếp chồng” nhiều sức mạnh tính toán, và việc tăng tài nguyên ở phía suy luận phản ánh nhu cầu về năng lực phản hồi tức thời của các kịch bản triển khai của Agent.

Đối với vấn đề chênh lệch thế hệ Pre-train của các mô hình lớn trong nước, La Fu-li nói trong cuộc phỏng vấn rằng khoảng chênh lệch này đã được rút ngắn từ 3 năm trong quá khứ xuống còn vài tháng; trọng tâm chiến lược hiện tại đang chuyển sang Agent RL Scaling. Hành trình nghề nghiệp của La Fu-li bao gồm Viện Đa Mô Hình (Alibaba DAMO), Huan Fang Quant (Hanfang Quant) và DeepSeek (nhà phát triển cốt lõi DeepSeek-V2), và bà gia nhập Xiaomi vào tháng 11 năm 2025.

Thông số kỹ thuật loạt MiMo-V2 và xếp hạng mã nguồn mở

Theo thông báo loạt MiMo-V2 do Xiaomi chính thức công bố vào ngày 19 tháng 3 năm 2026, lần này ra mắt đồng thời ba mẫu:

MiMo-V2-Pro:tổng số tham số là…, bật tham số 42B, kiến trúc chú ý hỗn hợp (mix attention), hỗ trợ ngữ cảnh lên đến hàng triệu, tỷ lệ hoàn thành nhiệm vụ 81%

MiMo-V2-Omni:kịch bản Agent đa phương thức

MiMo-V2-TTS:kịch bản tổng hợp giọng nói

Theo thông báo, MiMo-V2-Flash đã được mã nguồn mở hiện đang đứng thứ hai trên bảng xếp hạng mô hình mã nguồn mở toàn cầu, tốc độ suy luận đạt gấp 3 lần DeepSeek-V3.2.

Câu hỏi thường gặp

La Fu-li định nghĩa “tự tiến hoá” như thế nào, và vì sao cho rằng đó là sự kiện quan trọng nhất của AGI?

Theo nội dung La Fu-li đã nêu trong cuộc phỏng vấn trên Bilibili vào ngày 24 tháng 4 năm 2026 (BV1iVoVBgERD), bà cho biết hiện nay các mô hình hàng đầu đã có thể tự tối ưu hoá trong các nhiệm vụ cụ thể và thực thi ổn định trong 2 đến 3 ngày mà không cần con người can thiệp, đồng thời bà định tính “tự tiến hoá” là sự kiện then chốt nhất đối với sự phát triển của AGI trong năm tới.

Xiaomi đã điều chỉnh những gì cụ thể trong tỷ lệ sức mạnh tính toán, và logic đằng sau là gì?

Theo những gì La Fu-li tiết lộ trong cuộc phỏng vấn, tỷ lệ sức mạnh tính toán của Xiaomi đã được điều chỉnh từ Pre-train:Post-train:Inference = 3:5:1 (tỷ lệ quen thuộc trong ngành) thành 3:1:1, nén mạnh tỷ lệ huấn luyện sau; bà giải thích rằng điều chỉnh này xuất phát từ việc hiệu quả của huấn luyện sau được nâng cao sau khi chiến lược Agent RL Scaling trưởng thành, và nhu cầu về năng lực phản hồi tức thời ở phía suy luận do các kịch bản triển khai của Agent.

Xếp hạng mã nguồn mở và hiệu suất tốc độ của MiMo-V2-Flash như thế nào?

Theo thông báo chính thức do Xiaomi công bố vào ngày 19 tháng 3 năm 2026, MiMo-V2-Flash đã được mã nguồn mở đang đứng thứ hai trên bảng xếp hạng mô hình mã nguồn mở toàn cầu, tốc độ suy luận đạt gấp 3 lần DeepSeek-V3.2; tỷ lệ hoàn thành nhiệm vụ của phiên bản flagship MiMo-V2-Pro là 81%.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Ant Group Ra Mắt Ling-2.6-1T: Mô Hình Hàng Nghìn Tỷ Tham Số Tối Ưu Cho Việc Thực Thi Tác Vụ Tiết Kiệm Token

Tin từ Gate News, 27 tháng 4 — Ant Group's inclusionAI đã phát hành Ling-2.6-1T, một mô hình chỉ dẫn cỡ hàng nghìn tỷ tham số mới trong dòng Ling, có quy mô flagship. Khác với các mô hình suy luận chuỗi dài, Ling-2.6-1T sử dụng cơ chế "Fast-Thinking" được thiết kế để thực thi tác vụ chính xác với lượng token tối thiểu

GateNews8phút trước

API của Nansen Giờ Hỗ Trợ Giao thức MPP của Tempo, Cho Phép Tác nhân AI Thanh toán Theo Từng Lần Gọi

Tin tức từ Gate, ngày 27 tháng 4 — API của Nansen hiện đã hỗ trợ Giao thức Thanh toán Máy (MPP), một chuẩn dành cho các khoản thanh toán tự động giữa máy với máy được hỗ trợ bởi Tempo và Stripe. Tích hợp này cho phép các tác nhân AI thanh toán trực tiếp từ ví của họ theo từng lần gọi. Tính năng này hoạt động song song với

GateNews36phút trước

OpenAI's Greg Brockman: AI Shifting from Chat to Autonomous Task Execution

Gate News message, April 27 — Greg Brockman, president and co-founder of OpenAI, says the next wave of artificial intelligence will move users from chatting with AI bots to assigning real-world tasks. This shift requires enterprises to rethink operational workflows and establish new protocols for se

GateNews1giờ trước

CEX lớn ra mắt Smart Money Signal Suite với dữ liệu từ hơn 1.000 nhà giao dịch

Tin tức Gate, ngày 27 tháng 4 — Một sàn giao dịch tập trung lớn đã ra mắt "Smart Money Signal Suite" tích hợp dữ liệu nắm giữ theo thời gian thực, tỷ lệ thắng và lãi/lỗ từ hơn 1.000 nhà giao dịch phổ biến. Bộ công cụ, có thể truy cập thông qua Agent Trade Kit của nền tảng, mã hóa các tín hiệu giao dịch dưới dạng các công cụ có thể gọi bởi AI Agent.

GateNews1giờ trước

B.AI Nâng Cấp Cơ Sở Hạ Tầng, Ra Mắt Các Tính Năng Kỹ Năng Lớn

Tin tức của Gate, ngày 27 tháng 4 — B.AI đã công bố nhiều tiến bộ về sản phẩm và hệ sinh thái trong tuần này. Trang đích BAIclaw đã được đại tu hoàn toàn về giao diện trực quan và tương tác, đồng thời hỗ trợ đa ngôn ngữ trên website được mở rộng lên 10 ngôn ngữ, giúp nâng cao khả năng sử dụng trên phạm vi toàn cầu. Ở mảng hạ tầng

GateNews2giờ trước

Tác nhân AI thúc đẩy nhu cầu thanh toán bằng crypto, x402 xử lý 165M giao dịch

Tin tức Gate, ngày 27 tháng 4 — Jesse Pollak, một lãnh đạo tại một sàn CEX lớn, cho rằng các tác nhân AI tự chủ đang tạo ra một "trung tâm nhu cầu" mới cho các khoản thanh toán bằng crypto, từ đó đòi hỏi hạ tầng thanh toán gốc phần mềm. Vào ngày 20 tháng 4, người ta đã công bố rằng hệ sinh thái x402 đã xử lý hơn 165

GateNews3giờ trước
Bình luận
0/400
Không có bình luận