Две американские лаборатории ИИ выпустили модели с открытым исходным кодом на этой неделе, каждая из которых использует совершенно разные подходы к одной и той же проблеме: как конкурировать с доминированием Китая в области общедоступных систем ИИ.
Deep Cogito выпустил Cogito v2.1, массивную модель с 671 миллиардами параметров, которую ее основатель, Дришан Арора, называет “лучшей открытой LLM от американской компании.”
Не так быстро, возразил Институт Аллена по изучению искусственного интеллекта, который только что выпустил Olmo 3, заявив, что это “лучшая полностью открытая базовая модель”. Olmo 3 обладает полной прозрачностью, включая свои обучающие данные и код.
Иронично, что флагманская модель Deep Cognito основана на китайской базе. Арора признал в X, что Cogito v2.1 “отделяется от открытой лицензии модели Deepseek, выпущенной в ноябре 2024 года.”
Это вызвало критику и даже дебаты о том, считается ли доработка китайской модели достижением американского ИИ или это просто доказывает, насколько сильно отстали лаборатории США.
pic.twitter.com/N7x1eEsjhF
— Лука Солдайни 🎀 (@soldni) 19 ноября 2025
лучший открытый LLM от американской компании
это круто, но я не уверен, стоит ли акцентировать внимание на части “US”, так как базовая модель - deepseek V3
— эли (@eliebakouch) 19 ноября 2025
Тем не менее, приросты эффективности, которые показывает Cogito по сравнению с DeepSeek, являются реальными.
Компания Deep Cognito утверждает, что Cogito v2.1 генерирует на 60% более короткие цепочки рассуждений, чем DeepSeek R1, при этом сохраняя конкурентоспособную производительность.
Используя то, что Арора называет “Итеративной дистилляцией и усилением” — обучая модели развивать лучшую интуицию через циклы самосовершенствования — стартап обучил свою модель всего за 75 дней на инфраструктуре от RunPod и Nebius.
Если эти эталоны верны, это будет самая мощная открытая LLM, в настоящее время поддерживаемая командой из США.
Почему это важно
На данный момент Китай задает темп в области открытого ИИ, а компании США все больше полагаются—тихо или открыто—на китайские базовые модели, чтобы оставаться конкурентоспособными.
Эта динамика рискованна. Если китайские лаборатории станут стандартной инфраструктурой для открытого ИИ во всем мире, стартапы США потеряют техническую независимость, negotiating power и способность формировать отраслевые стандарты.
Открытый вес ИИ определяет, кто контролирует сырьевые модели, от которых зависит каждый downstream продукт.
Сейчас китайские открытые модели (DeepSeek, Qwen, Kimi, MiniMax) доминируют в глобальном использовании, потому что они дешевые, быстрые, высокоэффективные и постоянно обновляются.
Изображение: Artificialanalysis.ai
Многие стартапы в США уже строятся на них, даже когда они публично избегают этого признавать.
Это означает, что американские компании строят бизнес на основе иностранной интеллектуальной собственности, иностранных обучающих программ и иностранных аппаратных оптимизаций. Стратегически это ставит Америку в такое же положение, с которым она когда-то столкнулась в производстве полупроводников: все более зависимой от чужой цепочки поставок.
Подход Deep Cogito, начинающийся с форка DeepSeek, демонстрирует плюсы (быстрой итерации) и минусы (зависимости).
Подход Института Аллена — создание Olmo 3 с полной прозрачностью — показывает альтернативу: если США хотят открыть лидерство в ИИ, им необходимо заново построить стек, начиная с данных, рецептов обучения и контрольных точек. Это трудоемко и медленно, но сохраняет суверенитет над основной технологией.
В теории, если вам уже нравится DeepSeek и вы используете его онлайн, Cogito будет давать вам лучшие ответы в большинстве случаев. Если вы используете его через API, вы будете вдвое счастливее, так как будете платить меньше денег за получение хороших ответов благодаря его повышению эффективности.
Институт Аллена выбрал противоположный путь. Вся семья моделей Olmo 3 приходит с Dolma 3, обучающим набором данных на 5,9 триллиона токенов, созданным с нуля, а также полным кодом, рецептами и контрольными точками на каждом этапе обучения.
Неправительственная организация выпустила три варианта модели — Base, Think и Instruct — с 7 миллиардами и 32 миллиардами параметров.
“Истинная открытость в ИИ заключается не только в доступе—это доверие, подотчетность и общий прогресс,” написало учреждение.
Olmo 3-Think 32B — это первая полностью открытая модель рассуждения такого масштаба, обученная примерно на одной шестой токенов по сравнению с такими моделями, как Qwen 3, при этом демонстрируя конкурентоспособные результаты.
Изображение: Ai2
Deep Cognito secured $13 миллионов в стартовом финансировании, возглавляемом Benchmark в августе. Стартап планирует выпустить пограничные модели до 671 миллиарда параметров, обученные на “значительно большем объеме вычислений с лучшими наборами данных.”
Тем временем Nvidia поддержала разработку Olmo 3, вице-президент Кари Бриски назвала это необходимым для “разработчиков, чтобы масштабировать ИИ с открытыми, созданными в США моделями.”
Институт обучался на кластерах GPU H100 от Google Cloud, достигнув в 2,5 раза меньших вычислительных требований, чем у Llama 3.1 8B от Meta.
Cogito v2.1 доступен для бесплатного онлайн-тестирования здесь. Модель можно скачать здесь, но будьте осторожны: для ее запуска требуется очень мощная видеокарта.
Olmo доступен для тестирования здесь. Модели можно скачать здесь. Эти модели более удобны для потребителей, в зависимости от того, какую вы выберете.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Гамбит открытого исходного кода ИИ Америки: две лаборатории, один вопрос — может ли США конкурировать?
Центр Искусства, Моды и Развлечений Decrypt.
Откройте SCENE
Две американские лаборатории ИИ выпустили модели с открытым исходным кодом на этой неделе, каждая из которых использует совершенно разные подходы к одной и той же проблеме: как конкурировать с доминированием Китая в области общедоступных систем ИИ.
Deep Cogito выпустил Cogito v2.1, массивную модель с 671 миллиардами параметров, которую ее основатель, Дришан Арора, называет “лучшей открытой LLM от американской компании.”
Не так быстро, возразил Институт Аллена по изучению искусственного интеллекта, который только что выпустил Olmo 3, заявив, что это “лучшая полностью открытая базовая модель”. Olmo 3 обладает полной прозрачностью, включая свои обучающие данные и код.
Иронично, что флагманская модель Deep Cognito основана на китайской базе. Арора признал в X, что Cogito v2.1 “отделяется от открытой лицензии модели Deepseek, выпущенной в ноябре 2024 года.”
Это вызвало критику и даже дебаты о том, считается ли доработка китайской модели достижением американского ИИ или это просто доказывает, насколько сильно отстали лаборатории США.
Тем не менее, приросты эффективности, которые показывает Cogito по сравнению с DeepSeek, являются реальными.
Компания Deep Cognito утверждает, что Cogito v2.1 генерирует на 60% более короткие цепочки рассуждений, чем DeepSeek R1, при этом сохраняя конкурентоспособную производительность.
Используя то, что Арора называет “Итеративной дистилляцией и усилением” — обучая модели развивать лучшую интуицию через циклы самосовершенствования — стартап обучил свою модель всего за 75 дней на инфраструктуре от RunPod и Nebius.
Если эти эталоны верны, это будет самая мощная открытая LLM, в настоящее время поддерживаемая командой из США.
Почему это важно
На данный момент Китай задает темп в области открытого ИИ, а компании США все больше полагаются—тихо или открыто—на китайские базовые модели, чтобы оставаться конкурентоспособными.
Эта динамика рискованна. Если китайские лаборатории станут стандартной инфраструктурой для открытого ИИ во всем мире, стартапы США потеряют техническую независимость, negotiating power и способность формировать отраслевые стандарты.
Открытый вес ИИ определяет, кто контролирует сырьевые модели, от которых зависит каждый downstream продукт.
Сейчас китайские открытые модели (DeepSeek, Qwen, Kimi, MiniMax) доминируют в глобальном использовании, потому что они дешевые, быстрые, высокоэффективные и постоянно обновляются. Изображение: Artificialanalysis.ai
Многие стартапы в США уже строятся на них, даже когда они публично избегают этого признавать.
Это означает, что американские компании строят бизнес на основе иностранной интеллектуальной собственности, иностранных обучающих программ и иностранных аппаратных оптимизаций. Стратегически это ставит Америку в такое же положение, с которым она когда-то столкнулась в производстве полупроводников: все более зависимой от чужой цепочки поставок.
Подход Deep Cogito, начинающийся с форка DeepSeek, демонстрирует плюсы (быстрой итерации) и минусы (зависимости).
Подход Института Аллена — создание Olmo 3 с полной прозрачностью — показывает альтернативу: если США хотят открыть лидерство в ИИ, им необходимо заново построить стек, начиная с данных, рецептов обучения и контрольных точек. Это трудоемко и медленно, но сохраняет суверенитет над основной технологией.
В теории, если вам уже нравится DeepSeek и вы используете его онлайн, Cogito будет давать вам лучшие ответы в большинстве случаев. Если вы используете его через API, вы будете вдвое счастливее, так как будете платить меньше денег за получение хороших ответов благодаря его повышению эффективности.
Институт Аллена выбрал противоположный путь. Вся семья моделей Olmo 3 приходит с Dolma 3, обучающим набором данных на 5,9 триллиона токенов, созданным с нуля, а также полным кодом, рецептами и контрольными точками на каждом этапе обучения.
Неправительственная организация выпустила три варианта модели — Base, Think и Instruct — с 7 миллиардами и 32 миллиардами параметров.
“Истинная открытость в ИИ заключается не только в доступе—это доверие, подотчетность и общий прогресс,” написало учреждение.
Olmo 3-Think 32B — это первая полностью открытая модель рассуждения такого масштаба, обученная примерно на одной шестой токенов по сравнению с такими моделями, как Qwen 3, при этом демонстрируя конкурентоспособные результаты. Изображение: Ai2
Deep Cognito secured $13 миллионов в стартовом финансировании, возглавляемом Benchmark в августе. Стартап планирует выпустить пограничные модели до 671 миллиарда параметров, обученные на “значительно большем объеме вычислений с лучшими наборами данных.”
Тем временем Nvidia поддержала разработку Olmo 3, вице-президент Кари Бриски назвала это необходимым для “разработчиков, чтобы масштабировать ИИ с открытыми, созданными в США моделями.”
Институт обучался на кластерах GPU H100 от Google Cloud, достигнув в 2,5 раза меньших вычислительных требований, чем у Llama 3.1 8B от Meta.
Cogito v2.1 доступен для бесплатного онлайн-тестирования здесь. Модель можно скачать здесь, но будьте осторожны: для ее запуска требуется очень мощная видеокарта.
Olmo доступен для тестирования здесь. Модели можно скачать здесь. Эти модели более удобны для потребителей, в зависимости от того, какую вы выберете.