アメリカのオープンソースAIギャンビット:2つのラボ、1つの質問—アメリカは競争できるか?

デクryptのアート、ファッション、エンターテインメントハブ。


SCENEを見る

今週、2つのアメリカのAIラボがオープンソースモデルを発表しました。それぞれが同じ問題、すなわち中国の公にアクセス可能なAIシステムの支配に対抗する方法に対して全く異なるアプローチを取っています。

Deep Cogitoは、創設者のDrishan Aroraが「米国企業による最高のオープンウェイトLLM」と呼ぶ、大規模な6710億パラメータモデルであるCogito v2.1を発表しました。

そう急がないでください、とAIのためのアレン研究所は反論しました。彼らは「完全にオープンなベースモデルとして最高」としてOlmo 3を発表しました。Olmo 3は、トレーニングデータとコードを含む完全な透明性を誇っています。

皮肉なことに、Deep Cognitoの旗艦モデルは中国の基盤の上に構築されています。アローラはXでCogito v2.1が「2024年11月のオープンライセンスのDeepseekベースモデルからフォークされている」と認めました。

それは、中国のモデルを微調整することがアメリカのAIの進展と見なされるのか、またはそれが単にアメリカの研究所がどれほど後れを取っているかを証明しているのかについての批判や議論を引き起こしました。

pic.twitter.com/N7x1eEsjhF

— ルカ・ソルダイニ 🎀 (@soldni) 2025年11月19日


米国企業による最高のオープンウェイトLLM

これはクールですが、ベースモデルがdeepseek V3なので「US」部分を強調することについては確信がありません。

— elie (@eliebakouch) 2025年11月19日


それに関しては、CogitoがDeepSeekに対して示す効率の向上は本物です。

Deep Cognitoは、Cogito v2.1がDeepSeek R1よりも60%短い推論チェーンを生成し、競争力のあるパフォーマンスを維持することを主張しています。

アローラが「反復蒸留と増幅」と呼ぶ手法を使用して—自己改善ループを通じてモデルがより良い直感を発展させることを教える—スタートアップは、RunPodとNebiusのインフラを用いてわずか75日でモデルを訓練しました。

もしベンチマークが真実であれば、これは現在アメリカのチームによって維持されている最も強力なオープンソースのLLMになるでしょう。

なぜ重要なのか

これまでのところ、中国はオープンソースAIのペースを設定しており、米国企業は競争力を維持するために、中国のベースモデルにますます依存しています—静かにまたは公然と。

そのダイナミクスは危険です。もし中国の研究所が世界中のオープンAIのデフォルトのインフラストラクチャになると、アメリカのスタートアップは技術的な独立性、交渉力、そして業界標準を形作る能力を失うことになります。

オープンウェイトAIは、すべてのダウンストリーム製品が依存する生のモデルを誰が制御するかを決定します。

現在、中国のオープンソースモデル(DeepSeek、Qwen、Kimi、MiniMax)は、安価で高速、高効率、かつ常に更新されているため、世界的な採用を支配しています。 画像:Artificialanalysis.ai

多くの米国のスタートアップは、公開的にそれを認めることを避けていても、すでにそれらの上に構築しています。

それは、アメリカの企業が外国の知的財産、外国のトレーニングパイプライン、そして外国のハードウェア最適化の上にビジネスを構築していることを意味します。戦略的には、アメリカはかつて半導体製造に直面していたのと同じ立場に置かれています:ますます他人のサプライチェーンに依存しています。

Deep Cogitoのアプローチ—DeepSeekフォークから始まる—は、上昇の(迅速な反復)と、下降の(依存)を示しています。

アレン研究所のアプローチ—完全な透明性を持ってオルモ3を構築すること—は、代替案を示しています。もしアメリカがオープンAIのリーダーシップを望むのであれば、データからトレーニングレシピ、チェックポイントまで、自らスタックを再構築しなければなりません。それは労力を要し、遅いですが、基盤となる技術に対する主権を保持します。

理論的には、すでにDeepSeekを気に入ってオンラインで使用している場合、Cogitoはほとんどの場合、より良い回答を提供します。APIを介して使用する場合、その効率の向上により、良い応答を生成するために支払う金額が少なくなるため、あなたは2倍幸せになるでしょう。

アレン研究所は反対の方針をとりました。オルモ3モデルの全ファミリーは、ゼロから構築された5.9兆トークンのトレーニングデータセットであるドルマ3と共に到着し、すべてのトレーニング段階からの完全なコード、レシピ、チェックポイントが含まれています。

その非営利団体は、70億と320億のパラメータを持つ3つのモデルバリアント—Base、Think、Instruct—を発表しました。

「AIにおける真のオープン性は、単にアクセスすることだけではなく、信頼、説明責任、そして共有された進歩に関するものです」とその機関は述べました。

Olmo 3-Think 32Bは、そのスケールで初めての完全なオープン推論モデルであり、Qwen 3のような同等のモデルの約6分の1のトークンで訓練されながら、競争力のあるパフォーマンスを達成しています。 画像:Ai2

Deep Cognitoは、8月にBenchmarkが主導するシード資金で$13 百万ドルを確保しました。このスタートアップは、「はるかに多くのコンピュートとより良いデータセットで」訓練された6710億パラメータまでのフロンティアモデルをリリースする計画です。

その間、NvidiaはOlmo 3の開発を支援し、副社長のKari Briskiは「開発者がオープンな、アメリカ製のモデルでAIをスケールさせることが重要である」と述べました。

その研究所はGoogle CloudのH100 GPUクラスターでトレーニングを行い、MetaのLlama 3.1 8Bよりも2.5倍少ない計算要件を達成しました。

Cogito v2.1は、こちらで無料でオンラインテストが可能です。モデルはここからダウンロードできますが、注意してください:非常に強力なカードが必要です。

Olmoはここでテスト可能です。モデルはここからダウンロードできます。これらは、選択するものによってより消費者に優しいです。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン