Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Hai phòng thí nghiệm AI của Mỹ đã phát hành các mô hình mã nguồn mở trong tuần này, mỗi phòng thí nghiệm áp dụng những cách tiếp cận hoàn toàn khác nhau đối với cùng một vấn đề: làm thế nào để cạnh tranh với sự thống trị của Trung Quốc trong các hệ thống AI công khai.
Deep Cogito đã phát hành Cogito v2.1, một mô hình khổng lồ với 671 tỷ tham số mà người sáng lập của nó, Drishan Arora, gọi là “mô hình LLM mở tốt nhất của một công ty Hoa Kỳ.”
Không nhanh như vậy, phản biện Viện Allen về AI, nơi vừa phát hành Olmo 3, được quảng cáo là “mô hình cơ sở hoàn toàn mở tốt nhất.” Olmo 3 tự hào với sự minh bạch hoàn toàn, bao gồm cả dữ liệu huấn luyện và mã nguồn.
Thật trớ trêu, mô hình hàng đầu của Deep Cognito được xây dựng trên một nền tảng của Trung Quốc. Arora đã thừa nhận trên X rằng Cogito v2.1 “tách ra từ mô hình cơ sở Deepseek có giấy phép mở từ tháng 11 năm 2024.”
Điều đó đã gây ra một số chỉ trích và thậm chí là tranh luận về việc việc tinh chỉnh một mô hình Trung Quốc có được coi là sự tiến bộ của AI Mỹ hay không, hoặc liệu nó chỉ chứng minh rằng các phòng thí nghiệm của Mỹ đã tụt lại bao xa.
pic.twitter.com/N7x1eEsjhF
— Luca Soldaini 🎀 (@soldni) Ngày 19 tháng 11 năm 2025
LLM mở trọng số tốt nhất bởi một công ty Mỹ
điều này thật tuyệt nhưng tôi không chắc về việc nhấn mạnh phần “MỸ” vì mô hình cơ sở là deepseek V3
— elie (@eliebakouch) 19 tháng 11, 2025
Dù sao đi nữa, những lợi ích về hiệu suất mà Cogito mang lại so với DeepSeek là có thật.
Deep Cognito tuyên bố rằng Cogito v2.1 tạo ra chuỗi suy luận ngắn hơn 60% so với DeepSeek R1 trong khi vẫn duy trì hiệu suất cạnh tranh.
Sử dụng cái mà Arora gọi là “Chưng cất và Tăng cường Lặp lại”—dạy các mô hình phát triển trực giác tốt hơn thông qua các vòng lặp tự cải thiện—công ty khởi nghiệp đã đào tạo mô hình của mình chỉ trong 75 ngày trên cơ sở hạ tầng từ RunPod và Nebius.
Nếu các chỉ số là đúng, đây sẽ là LLM mã nguồn mở mạnh mẽ nhất hiện nay do một đội ngũ của Mỹ duy trì.
Tại sao điều này quan trọng
Cho đến nay, Trung Quốc đã đi đầu trong lĩnh vực AI mã nguồn mở, và các công ty Mỹ ngày càng phụ thuộc - một cách lặng lẽ hoặc công khai - vào các mô hình cơ sở của Trung Quốc để duy trì tính cạnh tranh.
Động lực đó rất rủi ro. Nếu các phòng thí nghiệm Trung Quốc trở thành cơ sở hạ tầng mặc định cho AI mở trên toàn cầu, các công ty khởi nghiệp của Mỹ sẽ mất đi sự độc lập về kỹ thuật, quyền thương lượng và khả năng định hình các tiêu chuẩn trong ngành.
AI mở trọng số xác định ai kiểm soát các mô hình thô mà mọi sản phẩm hạ nguồn phụ thuộc vào.
Hiện tại, các mô hình nguồn mở Trung Quốc (DeepSeek, Qwen, Kimi, MiniMax) chiếm ưu thế trong việc áp dụng toàn cầu vì chúng rẻ, nhanh, hiệu quả cao và được cập nhật liên tục.
Ảnh: Artificialanalysis.ai
Nhiều công ty khởi nghiệp ở Mỹ đã xây dựng trên chúng, ngay cả khi họ công khai tránh thừa nhận điều đó.
Điều đó có nghĩa là các công ty của Mỹ đang xây dựng doanh nghiệp dựa trên sở hữu trí tuệ nước ngoài, các đường ống đào tạo nước ngoài và các tối ưu hóa phần cứng nước ngoài. Về mặt chiến lược, điều đó đặt Mỹ vào cùng một vị trí mà họ đã từng đối mặt với việc sản xuất bán dẫn: ngày càng phụ thuộc vào chuỗi cung ứng của người khác.
Cách tiếp cận của Deep Cogito—bắt đầu từ một nhánh DeepSeek—cho thấy mặt tích cực (sự lặp lại nhanh chóng) và mặt tiêu cực (sự phụ thuộc).
Cách tiếp cận của Viện Allen—xây dựng Olmo 3 với sự minh bạch hoàn toàn—cho thấy sự thay thế: nếu Mỹ muốn lãnh đạo AI mở, họ phải tự tái xây dựng hệ thống, từ dữ liệu đến công thức huấn luyện đến các điểm kiểm tra. Điều đó tốn nhiều công sức và chậm chạp, nhưng nó bảo vệ chủ quyền đối với công nghệ cơ bản.
Về lý thuyết, nếu bạn đã thích DeepSeek và sử dụng nó trực tuyến, Cogito sẽ mang đến cho bạn câu trả lời tốt hơn hầu hết thời gian. Nếu bạn sử dụng nó qua API, bạn sẽ hài lòng gấp đôi, vì bạn sẽ chi ít tiền hơn để tạo ra những phản hồi tốt nhờ vào những cải tiến về hiệu suất.
Viện Allen đã chọn cách tiếp cận ngược lại. Tất cả các mô hình Olmo 3 đều đi kèm với Dolma 3, một bộ dữ liệu huấn luyện 5,9 nghìn tỷ token được xây dựng từ đầu, cùng với mã nguồn đầy đủ, công thức và điểm kiểm tra từ mọi giai đoạn huấn luyện.
Tổ chức phi lợi nhuận đã phát hành ba biến thể mô hình—Cơ bản, Suy nghĩ và Hướng dẫn—với 7 tỷ và 32 tỷ tham số.
“Sự cởi mở thực sự trong AI không chỉ là về quyền truy cập—mà còn là về niềm tin, trách nhiệm và sự tiến bộ chung,” viện đã viết.
Olmo 3-Think 32B là mô hình suy luận hoàn toàn mở đầu tiên ở quy mô đó, được đào tạo trên khoảng một phần sáu số token của các mô hình tương đương như Qwen 3, trong khi vẫn đạt được hiệu suất cạnh tranh.
Hình ảnh: Ai2
Deep Cognito đã huy động được $13 triệu USD trong vòng gọi vốn hạt giống do Benchmark dẫn đầu vào tháng Tám. Startup này dự định phát hành các mô hình tiên tiến lên đến 671 tỷ tham số được đào tạo trên “nhiều tính toán hơn đáng kể với các tập dữ liệu tốt hơn.”
Trong khi đó, Nvidia đã hỗ trợ việc phát triển Olmo 3, với phó chủ tịch Kari Briski cho rằng điều này rất quan trọng để “các nhà phát triển mở rộng AI với các mô hình được xây dựng ở Mỹ.”
Viện đã được đào tạo trên cụm GPU H100 của Google Cloud, đạt yêu cầu tính toán ít hơn 2,5 lần so với Llama 3.1 8B của Meta.
Cogito v2.1 có sẵn để thử nghiệm miễn phí trực tuyến tại đây. Mô hình có thể được tải xuống tại đây, nhưng hãy cẩn thận: nó yêu cầu một card rất mạnh để chạy.
Olmo có sẵn để thử nghiệm tại đây. Các mẫu có thể được tải xuống tại đây. Những mẫu này thân thiện hơn với người tiêu dùng, tùy thuộc vào mẫu nào bạn chọn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Mưu mẹo AI Mã nguồn mở của Mỹ: Hai phòng thí nghiệm, Một câu hỏi—Liệu Mỹ có thể cạnh tranh?
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Hai phòng thí nghiệm AI của Mỹ đã phát hành các mô hình mã nguồn mở trong tuần này, mỗi phòng thí nghiệm áp dụng những cách tiếp cận hoàn toàn khác nhau đối với cùng một vấn đề: làm thế nào để cạnh tranh với sự thống trị của Trung Quốc trong các hệ thống AI công khai.
Deep Cogito đã phát hành Cogito v2.1, một mô hình khổng lồ với 671 tỷ tham số mà người sáng lập của nó, Drishan Arora, gọi là “mô hình LLM mở tốt nhất của một công ty Hoa Kỳ.”
Không nhanh như vậy, phản biện Viện Allen về AI, nơi vừa phát hành Olmo 3, được quảng cáo là “mô hình cơ sở hoàn toàn mở tốt nhất.” Olmo 3 tự hào với sự minh bạch hoàn toàn, bao gồm cả dữ liệu huấn luyện và mã nguồn.
Thật trớ trêu, mô hình hàng đầu của Deep Cognito được xây dựng trên một nền tảng của Trung Quốc. Arora đã thừa nhận trên X rằng Cogito v2.1 “tách ra từ mô hình cơ sở Deepseek có giấy phép mở từ tháng 11 năm 2024.”
Điều đó đã gây ra một số chỉ trích và thậm chí là tranh luận về việc việc tinh chỉnh một mô hình Trung Quốc có được coi là sự tiến bộ của AI Mỹ hay không, hoặc liệu nó chỉ chứng minh rằng các phòng thí nghiệm của Mỹ đã tụt lại bao xa.
Dù sao đi nữa, những lợi ích về hiệu suất mà Cogito mang lại so với DeepSeek là có thật.
Deep Cognito tuyên bố rằng Cogito v2.1 tạo ra chuỗi suy luận ngắn hơn 60% so với DeepSeek R1 trong khi vẫn duy trì hiệu suất cạnh tranh.
Sử dụng cái mà Arora gọi là “Chưng cất và Tăng cường Lặp lại”—dạy các mô hình phát triển trực giác tốt hơn thông qua các vòng lặp tự cải thiện—công ty khởi nghiệp đã đào tạo mô hình của mình chỉ trong 75 ngày trên cơ sở hạ tầng từ RunPod và Nebius.
Nếu các chỉ số là đúng, đây sẽ là LLM mã nguồn mở mạnh mẽ nhất hiện nay do một đội ngũ của Mỹ duy trì.
Tại sao điều này quan trọng
Cho đến nay, Trung Quốc đã đi đầu trong lĩnh vực AI mã nguồn mở, và các công ty Mỹ ngày càng phụ thuộc - một cách lặng lẽ hoặc công khai - vào các mô hình cơ sở của Trung Quốc để duy trì tính cạnh tranh.
Động lực đó rất rủi ro. Nếu các phòng thí nghiệm Trung Quốc trở thành cơ sở hạ tầng mặc định cho AI mở trên toàn cầu, các công ty khởi nghiệp của Mỹ sẽ mất đi sự độc lập về kỹ thuật, quyền thương lượng và khả năng định hình các tiêu chuẩn trong ngành.
AI mở trọng số xác định ai kiểm soát các mô hình thô mà mọi sản phẩm hạ nguồn phụ thuộc vào.
Hiện tại, các mô hình nguồn mở Trung Quốc (DeepSeek, Qwen, Kimi, MiniMax) chiếm ưu thế trong việc áp dụng toàn cầu vì chúng rẻ, nhanh, hiệu quả cao và được cập nhật liên tục. Ảnh: Artificialanalysis.ai
Nhiều công ty khởi nghiệp ở Mỹ đã xây dựng trên chúng, ngay cả khi họ công khai tránh thừa nhận điều đó.
Điều đó có nghĩa là các công ty của Mỹ đang xây dựng doanh nghiệp dựa trên sở hữu trí tuệ nước ngoài, các đường ống đào tạo nước ngoài và các tối ưu hóa phần cứng nước ngoài. Về mặt chiến lược, điều đó đặt Mỹ vào cùng một vị trí mà họ đã từng đối mặt với việc sản xuất bán dẫn: ngày càng phụ thuộc vào chuỗi cung ứng của người khác.
Cách tiếp cận của Deep Cogito—bắt đầu từ một nhánh DeepSeek—cho thấy mặt tích cực (sự lặp lại nhanh chóng) và mặt tiêu cực (sự phụ thuộc).
Cách tiếp cận của Viện Allen—xây dựng Olmo 3 với sự minh bạch hoàn toàn—cho thấy sự thay thế: nếu Mỹ muốn lãnh đạo AI mở, họ phải tự tái xây dựng hệ thống, từ dữ liệu đến công thức huấn luyện đến các điểm kiểm tra. Điều đó tốn nhiều công sức và chậm chạp, nhưng nó bảo vệ chủ quyền đối với công nghệ cơ bản.
Về lý thuyết, nếu bạn đã thích DeepSeek và sử dụng nó trực tuyến, Cogito sẽ mang đến cho bạn câu trả lời tốt hơn hầu hết thời gian. Nếu bạn sử dụng nó qua API, bạn sẽ hài lòng gấp đôi, vì bạn sẽ chi ít tiền hơn để tạo ra những phản hồi tốt nhờ vào những cải tiến về hiệu suất.
Viện Allen đã chọn cách tiếp cận ngược lại. Tất cả các mô hình Olmo 3 đều đi kèm với Dolma 3, một bộ dữ liệu huấn luyện 5,9 nghìn tỷ token được xây dựng từ đầu, cùng với mã nguồn đầy đủ, công thức và điểm kiểm tra từ mọi giai đoạn huấn luyện.
Tổ chức phi lợi nhuận đã phát hành ba biến thể mô hình—Cơ bản, Suy nghĩ và Hướng dẫn—với 7 tỷ và 32 tỷ tham số.
“Sự cởi mở thực sự trong AI không chỉ là về quyền truy cập—mà còn là về niềm tin, trách nhiệm và sự tiến bộ chung,” viện đã viết.
Olmo 3-Think 32B là mô hình suy luận hoàn toàn mở đầu tiên ở quy mô đó, được đào tạo trên khoảng một phần sáu số token của các mô hình tương đương như Qwen 3, trong khi vẫn đạt được hiệu suất cạnh tranh. Hình ảnh: Ai2
Deep Cognito đã huy động được $13 triệu USD trong vòng gọi vốn hạt giống do Benchmark dẫn đầu vào tháng Tám. Startup này dự định phát hành các mô hình tiên tiến lên đến 671 tỷ tham số được đào tạo trên “nhiều tính toán hơn đáng kể với các tập dữ liệu tốt hơn.”
Trong khi đó, Nvidia đã hỗ trợ việc phát triển Olmo 3, với phó chủ tịch Kari Briski cho rằng điều này rất quan trọng để “các nhà phát triển mở rộng AI với các mô hình được xây dựng ở Mỹ.”
Viện đã được đào tạo trên cụm GPU H100 của Google Cloud, đạt yêu cầu tính toán ít hơn 2,5 lần so với Llama 3.1 8B của Meta.
Cogito v2.1 có sẵn để thử nghiệm miễn phí trực tuyến tại đây. Mô hình có thể được tải xuống tại đây, nhưng hãy cẩn thận: nó yêu cầu một card rất mạnh để chạy.
Olmo có sẵn để thử nghiệm tại đây. Các mẫu có thể được tải xuống tại đây. Những mẫu này thân thiện hơn với người tiêu dùng, tùy thuộc vào mẫu nào bạn chọn.