Dua laboratorium AI Amerika merilis model sumber terbuka minggu ini, masing-masing mengambil pendekatan yang sangat berbeda untuk masalah yang sama: bagaimana bersaing dengan dominasi China dalam sistem AI yang dapat diakses publik.
Deep Cogito meluncurkan Cogito v2.1, sebuah model besar dengan 671 miliar parameter yang dideskripsikan pendirinya, Drishan Arora, sebagai “LLM open-weight terbaik oleh perusahaan AS.”
Tidak begitu cepat, balas The Allen Institute for AI, yang baru saja meluncurkan Olmo 3, mengklaimnya sebagai “model dasar sepenuhnya terbuka terbaik.” Olmo 3 memiliki transparansi penuh, termasuk data dan kode latihnya.
Ironisnya, model unggulan Deep Cognito dibangun di atas fondasi Cina. Arora mengakui di X bahwa Cogito v2.1 “memisahkan diri dari model dasar Deepseek yang memiliki lisensi terbuka dari November 2024.”
Itu memicu beberapa kritik dan bahkan perdebatan tentang apakah penyesuaian model Cina dianggap sebagai kemajuan AI Amerika, atau apakah itu hanya membuktikan seberapa jauh laboratorium AS tertinggal.
pic.twitter.com/N7x1eEsjhF
— Luca Soldaini 🎀 (@soldni) 19 November 2025
LLM terbuka terbaik oleh perusahaan AS
ini keren tetapi saya tidak yakin tentang penekanan pada bagian “US” karena model dasarnya adalah deepseek V3
— elie (@eliebakouch) 19 November 2025
Bagaimanapun, peningkatan efisiensi yang ditunjukkan Cogito dibandingkan dengan DeepSeek adalah nyata.
Deep Cognito mengklaim Cogito v2.1 menghasilkan rantai penalaran 60% lebih pendek daripada DeepSeek R1 sambil mempertahankan kinerja yang kompetitif.
Dengan apa yang disebut Arora “Distilasi dan Amplifikasi Iteratif”—mengajarkan model untuk mengembangkan intuisi yang lebih baik melalui loop perbaikan diri—startup ini melatih modelnya dalam waktu hanya 75 hari dengan infrastruktur dari RunPod dan Nebius.
Jika tolok ukurnya benar, ini akan menjadi LLM sumber terbuka paling kuat yang saat ini dipelihara oleh tim AS.
Mengapa itu penting
Sejauh ini, China telah memimpin dalam AI sumber terbuka, dan perusahaan-perusahaan AS semakin bergantung—dengan tenang atau terbuka—pada model dasar China untuk tetap bersaing.
Dinamik itu berisiko. Jika laboratorium China menjadi infrastruktur default untuk AI terbuka di seluruh dunia, startup AS kehilangan independensi teknis, daya tawar, dan kemampuan untuk membentuk standar industri.
AI berat terbuka menentukan siapa yang mengendalikan model mentah yang menjadi dasar bagi setiap produk hilir.
Saat ini, model sumber terbuka Tiongkok (DeepSeek, Qwen, Kimi, MiniMax) mendominasi adopsi global karena mereka murah, cepat, sangat efisien, dan terus diperbarui.
Gambar: Artificialanalysis.ai
Banyak startup di AS sudah membangun di atasnya, bahkan ketika mereka secara publik menghindari untuk mengakuinya.
Itu berarti perusahaan-perusahaan AS sedang membangun bisnis di atas kekayaan intelektual asing, jalur pelatihan asing, dan optimasi perangkat keras asing. Secara strategis, itu menempatkan Amerika dalam posisi yang sama seperti yang pernah dihadapinya dengan fabrikasi semikonduktor: semakin bergantung pada rantai pasokan orang lain.
Pendekatan Deep Cogito—dimulai dari fork DeepSeek—menunjukkan sisi positif (iterasi cepat) dan sisi negatif (ketergantungan).
Pendekatan Allen Institute—membangun Olmo 3 dengan transparansi penuh—menunjukkan alternatif: jika AS ingin memimpin AI secara terbuka, mereka harus membangun tumpukan itu sendiri, dari data hingga resep pelatihan hingga checkpoint. Itu membutuhkan banyak tenaga kerja dan lambat, tetapi itu mempertahankan kedaulatan atas teknologi yang mendasarinya.
Secara teori, jika Anda sudah menyukai DeepSeek dan menggunakannya secara online, Cogito akan memberi Anda jawaban yang lebih baik sebagian besar waktu. Jika Anda menggunakannya melalui API, Anda akan dua kali lebih senang, karena Anda akan membayar lebih sedikit untuk menghasilkan balasan yang baik berkat peningkatan efisiensinya.
Institut Allen mengambil pendekatan yang berlawanan. Seluruh keluarga model Olmo 3 hadir dengan Dolma 3, sebuah dataset pelatihan 5,9 triliun token yang dibangun dari awal, ditambah kode lengkap, resep, dan titik pemeriksaan dari setiap tahap pelatihan.
Organisasi nonprofit tersebut merilis tiga varian model—Base, Think, dan Instruct—dengan 7 miliar dan 32 miliar parameter.
“Keterbukaan sejati dalam AI bukan hanya tentang akses—ini tentang kepercayaan, akuntabilitas, dan kemajuan bersama,” tulis institut tersebut.
Olmo 3-Think 32B adalah model pemikiran terbuka sepenuhnya pertama pada skala itu, dilatih pada sekitar sepertiga token dari model sebanding seperti Qwen 3, sambil mencapai kinerja yang kompetitif.
Gambar: Ai2
Deep Cognito mengamankan $13 juta dalam pendanaan awal yang dipimpin oleh Benchmark pada bulan Agustus. Startup ini berencana untuk merilis model perbatasan hingga 671 miliar parameter yang dilatih dengan “komputasi yang jauh lebih banyak dengan dataset yang lebih baik.”
Sementara itu, Nvidia mendukung pengembangan Olmo 3, dengan wakil presiden Kari Briski menyebutnya penting bagi “pengembang untuk meningkatkan AI dengan model-model terbuka yang dibangun di AS.”
Institut tersebut dilatih di cluster GPU H100 milik Google Cloud, mencapai kebutuhan komputasi 2,5 kali lebih sedikit dibandingkan Llama 3.1 8B milik Meta.
Cogito v2.1 tersedia untuk pengujian online gratis di sini. Model dapat diunduh di sini, tetapi hati-hati: ini memerlukan kartu yang sangat kuat untuk dijalankan.
Olmo tersedia untuk pengujian di sini. Model-modelnya dapat diunduh di sini. Yang ini lebih ramah konsumen, tergantung pada mana yang Anda pilih.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Gambit AI Sumber Terbuka Amerika: Dua Laboratorium, Satu Pertanyaan—Bisakah AS Bersaing?
Pusat Seni, Mode, dan Hiburan Decrypt.
Temukan SCENE
Dua laboratorium AI Amerika merilis model sumber terbuka minggu ini, masing-masing mengambil pendekatan yang sangat berbeda untuk masalah yang sama: bagaimana bersaing dengan dominasi China dalam sistem AI yang dapat diakses publik.
Deep Cogito meluncurkan Cogito v2.1, sebuah model besar dengan 671 miliar parameter yang dideskripsikan pendirinya, Drishan Arora, sebagai “LLM open-weight terbaik oleh perusahaan AS.”
Tidak begitu cepat, balas The Allen Institute for AI, yang baru saja meluncurkan Olmo 3, mengklaimnya sebagai “model dasar sepenuhnya terbuka terbaik.” Olmo 3 memiliki transparansi penuh, termasuk data dan kode latihnya.
Ironisnya, model unggulan Deep Cognito dibangun di atas fondasi Cina. Arora mengakui di X bahwa Cogito v2.1 “memisahkan diri dari model dasar Deepseek yang memiliki lisensi terbuka dari November 2024.”
Itu memicu beberapa kritik dan bahkan perdebatan tentang apakah penyesuaian model Cina dianggap sebagai kemajuan AI Amerika, atau apakah itu hanya membuktikan seberapa jauh laboratorium AS tertinggal.
Bagaimanapun, peningkatan efisiensi yang ditunjukkan Cogito dibandingkan dengan DeepSeek adalah nyata.
Deep Cognito mengklaim Cogito v2.1 menghasilkan rantai penalaran 60% lebih pendek daripada DeepSeek R1 sambil mempertahankan kinerja yang kompetitif.
Dengan apa yang disebut Arora “Distilasi dan Amplifikasi Iteratif”—mengajarkan model untuk mengembangkan intuisi yang lebih baik melalui loop perbaikan diri—startup ini melatih modelnya dalam waktu hanya 75 hari dengan infrastruktur dari RunPod dan Nebius.
Jika tolok ukurnya benar, ini akan menjadi LLM sumber terbuka paling kuat yang saat ini dipelihara oleh tim AS.
Mengapa itu penting
Sejauh ini, China telah memimpin dalam AI sumber terbuka, dan perusahaan-perusahaan AS semakin bergantung—dengan tenang atau terbuka—pada model dasar China untuk tetap bersaing.
Dinamik itu berisiko. Jika laboratorium China menjadi infrastruktur default untuk AI terbuka di seluruh dunia, startup AS kehilangan independensi teknis, daya tawar, dan kemampuan untuk membentuk standar industri.
AI berat terbuka menentukan siapa yang mengendalikan model mentah yang menjadi dasar bagi setiap produk hilir.
Saat ini, model sumber terbuka Tiongkok (DeepSeek, Qwen, Kimi, MiniMax) mendominasi adopsi global karena mereka murah, cepat, sangat efisien, dan terus diperbarui. Gambar: Artificialanalysis.ai
Banyak startup di AS sudah membangun di atasnya, bahkan ketika mereka secara publik menghindari untuk mengakuinya.
Itu berarti perusahaan-perusahaan AS sedang membangun bisnis di atas kekayaan intelektual asing, jalur pelatihan asing, dan optimasi perangkat keras asing. Secara strategis, itu menempatkan Amerika dalam posisi yang sama seperti yang pernah dihadapinya dengan fabrikasi semikonduktor: semakin bergantung pada rantai pasokan orang lain.
Pendekatan Deep Cogito—dimulai dari fork DeepSeek—menunjukkan sisi positif (iterasi cepat) dan sisi negatif (ketergantungan).
Pendekatan Allen Institute—membangun Olmo 3 dengan transparansi penuh—menunjukkan alternatif: jika AS ingin memimpin AI secara terbuka, mereka harus membangun tumpukan itu sendiri, dari data hingga resep pelatihan hingga checkpoint. Itu membutuhkan banyak tenaga kerja dan lambat, tetapi itu mempertahankan kedaulatan atas teknologi yang mendasarinya.
Secara teori, jika Anda sudah menyukai DeepSeek dan menggunakannya secara online, Cogito akan memberi Anda jawaban yang lebih baik sebagian besar waktu. Jika Anda menggunakannya melalui API, Anda akan dua kali lebih senang, karena Anda akan membayar lebih sedikit untuk menghasilkan balasan yang baik berkat peningkatan efisiensinya.
Institut Allen mengambil pendekatan yang berlawanan. Seluruh keluarga model Olmo 3 hadir dengan Dolma 3, sebuah dataset pelatihan 5,9 triliun token yang dibangun dari awal, ditambah kode lengkap, resep, dan titik pemeriksaan dari setiap tahap pelatihan.
Organisasi nonprofit tersebut merilis tiga varian model—Base, Think, dan Instruct—dengan 7 miliar dan 32 miliar parameter.
“Keterbukaan sejati dalam AI bukan hanya tentang akses—ini tentang kepercayaan, akuntabilitas, dan kemajuan bersama,” tulis institut tersebut.
Olmo 3-Think 32B adalah model pemikiran terbuka sepenuhnya pertama pada skala itu, dilatih pada sekitar sepertiga token dari model sebanding seperti Qwen 3, sambil mencapai kinerja yang kompetitif. Gambar: Ai2
Deep Cognito mengamankan $13 juta dalam pendanaan awal yang dipimpin oleh Benchmark pada bulan Agustus. Startup ini berencana untuk merilis model perbatasan hingga 671 miliar parameter yang dilatih dengan “komputasi yang jauh lebih banyak dengan dataset yang lebih baik.”
Sementara itu, Nvidia mendukung pengembangan Olmo 3, dengan wakil presiden Kari Briski menyebutnya penting bagi “pengembang untuk meningkatkan AI dengan model-model terbuka yang dibangun di AS.”
Institut tersebut dilatih di cluster GPU H100 milik Google Cloud, mencapai kebutuhan komputasi 2,5 kali lebih sedikit dibandingkan Llama 3.1 8B milik Meta.
Cogito v2.1 tersedia untuk pengujian online gratis di sini. Model dapat diunduh di sini, tetapi hati-hati: ini memerlukan kartu yang sangat kuat untuk dijalankan.
Olmo tersedia untuk pengujian di sini. Model-modelnya dapat diunduh di sini. Yang ini lebih ramah konsumen, tergantung pada mana yang Anda pilih.