Гамбіт відкритого вихідного коду штучного інтелекту Америки: дві лабораторії, одне питання—Чи може США конкурувати?

Декодер: центр мистецтв, моди та розваг.


Відкрийте SCENE

Два американських AI-лабораторії цього тижня випустили моделі з відкритим кодом, кожна з яких використовує кардинально різні підходи до однієї й тієї ж проблеми: як конкурувати з домінуванням Китаю у публічно доступних AI-системах.

Deep Cogito випустила Cogito v2.1, величезну модель з 671 мільярдом параметрів, яку її засновник, Дрішан Арора, називає “найкращою відкритою LLM від американської компанії.”

Не так швидко, заперечив Інститут Аллена для ШІ, який щойно випустив Olmo 3, називаючи його “найкращою повністю відкритою базовою моделлю”. Olmo 3 має повну прозорість, включаючи свої дані для навчання та код.

Іронічно, флагманська модель Deep Cognito побудована на китайському фундаменті. Арора зазначив на X, що Cogito v2.1 “відгалужується від відкритої ліцензованої базової моделі Deepseek з листопада 2024 року.”

Це викликало певну критику і навіть дискусії про те, чи вважається доопрацювання китайської моделі американським прогресом у сфері штучного інтелекту, чи просто доводить, наскільки далеко лабораторії США відстали.

pic.twitter.com/N7x1eEsjhF

— Лука Солдайні 🎀 (@soldni) 19 листопада 2025


найкраща LLM з відкритою вагою від американської компанії

це круто, але я не впевнений, чи варто підкреслювати частину “США”, оскільки базова модель - deepseek V3

— elie (@eliebakouch) 19 листопада 2025


Проте, ефективність, яку демонструє Cogito в порівнянні з DeepSeek, є реальною.

Deep Cognito стверджує, що Cogito v2.1 генерує на 60% коротші ланцюги міркувань, ніж DeepSeek R1, зберігаючи при цьому конкурентоспроможну продуктивність.

Використовуючи те, що Арора називає “Ітеративною дистиляцією та посиленням” — навчання моделей для розвитку кращої інтуїції через цикли самовдосконалення — стартап навчав свою модель всього за 75 днів на інфраструктурі від RunPod та Nebius.

Якщо ці орієнтири правдиві, це буде найпотужніша відкрита LLM, що в даний час підтримується командою з США.

Чому це важливо

Досі Китай задавав темп у сфері відкритого штучного інтелекту, а компанії США все більше покладаються—потайки або відкрито—на китайські базові моделі, щоб зберегти конкурентоспроможність.

Ця динаміка ризикована. Якщо китайські лабораторії стануть стандартною інфраструктурою для відкритого ШІ в усьому світі, стартапи США втрачають технічну незалежність, переговорну силу та можливість формувати галузеві стандарти.

Відкритий ваговий штучний інтелект визначає, хто контролює сирі моделі, від яких залежать усі продукти нижнього рівня.

Зараз китайські моделі з відкритим кодом (DeepSeek, Qwen, Kimi, MiniMax) домінують у глобальному впровадженні, оскільки вони дешеві, швидкі, високоефективні та постійно оновлюються. Зображення: Artificialanalysis.ai

Багато стартапів у США вже будують на них, навіть коли публічно уникають визнання цього.

Це означає, що американські компанії створюють бізнеси на основі іноземної інтелектуальної власності, іноземних навчальних програм та іноземних оптимізацій апаратного забезпечення. Стратегічно це ставить Америку в таку ж позицію, з якою вона раніше стикалася з виготовленням напівпровідників: дедалі більшою мірою залежною від ланцюга постачання когось іншого.

Підхід Deep Cogito, що починається з вилки DeepSeek, демонструє переваги (швидкої ітерації) та недоліки (залежності).

Підхід Інституту Аллена—будування Olmo 3 з повною прозорістю—показує альтернативу: якщо США хочуть лідерства в відкритому ШІ, їм потрібно відновити стек самостійно, від даних до рецептів навчання та контрольних точок. Це трудомісткий і повільний процес, але він зберігає суверенітет над базовою технологією.

В теорії, якщо вам вже подобається DeepSeek і ви використовуєте його онлайн, Cogito зазвичай надасть вам кращі відповіді. Якщо ви використовуєте його через API, ви будете вдвічі щасливіші, оскільки заплатите менше грошей за генерацію хороших відповідей завдяки його ефективності.

Інститут Аллена обрав протилежний підхід. Уся родина моделей Olmo 3 постачається з Dolma 3, навчальним набором даних на 5,9 трильйона токенів, створеним з нуля, а також з повним кодом, рецептами та контрольними точками з кожного етапу навчання.

Неприбуткова організація випустила три варіанти моделей—Base, Think та Instruct—з 7 мільярдами та 32 мільярдами параметрів.

“Справжня відкритість в ШІ - це не лише доступ, а й довіра, відповідальність і спільний прогрес,” - написав інститут.

Olmo 3-Think 32B — це перша повністю відкрита модель міркування такого масштабу, навчена на приблизно одній шостій частині токенів порівнянних моделей, таких як Qwen 3, при цьому досягаючи конкурентоспроможних результатів. Зображення: Ai2

Deep Cognito отримала $13 мільйон у початковому фінансуванні, яке очолила Benchmark у серпні. Стартап планує випустити прикордонні моделі до 671 мільярда параметрів, навчені на “значно більшій обчислювальній потужності з кращими наборами даних.”

Тим часом Nvidia підтримала розвиток Olmo 3, віце-президент Карі Бріскі назвала його важливим для “розробників, щоб масштабувати ШІ з відкритими, побудованими в США моделями.”

Інститут навчався на GPU-кластерах H100 Google Cloud, досягнувши у 2,5 рази менших вимог до обчислень, ніж Llama 3.1 8B від Meta.

Cogito v2.1 доступний для безкоштовного онлайн-тестування тут. Модель можна завантажити тут, але будьте обережні: для її запуску потрібна дуже потужна карта.

Olmo доступний для тестування тут. Моделі можна завантажити тут. Ці є більш дружніми до споживачів, залежно від того, яку ви виберете.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити