O Gambito de IA de Código Aberto dos E.U.A.: Dois Laboratórios, Uma Pergunta—Pode os E.U.A. Competir?

Hub de Arte, Moda e Entretenimento da Decrypt.


Descubra SCENE

Esta semana, dois laboratórios de IA americanos lançaram modelos de código aberto, cada um adotando abordagens dramaticamente diferentes para o mesmo problema: como competir com a dominância da China em sistemas de IA acessíveis ao público.

Deep Cogito lançou o Cogito v2.1, um modelo massivo de 671 bilhões de parâmetros que seu fundador, Drishan Arora, chama de “o melhor LLM de pesos abertos por uma empresa dos EUA.”

Não tão rápido, contra-atacou o Allen Institute for AI, que acaba de lançar o Olmo 3, apresentando-o como “o melhor modelo base totalmente aberto.” O Olmo 3 possui total transparência, incluindo seus dados de treinamento e código.

Ironia, o modelo principal da Deep Cognito é construído sobre uma base chinesa. Arora reconheceu no X que o Cogito v2.1 “se bifurca do modelo base Deepseek com licença aberta de novembro de 2024.”

Isso gerou algumas críticas e até um debate sobre se o ajuste fino de um modelo chinês conta como um avanço da IA americana, ou se apenas prova o quão longe os laboratórios dos EUA ficaram para trás.

pic.twitter.com/N7x1eEsjhF

— Luca Soldaini 🎀 (@soldni) 19 de novembro de 2025


melhor LLM de peso aberto por uma empresa dos EUA

isso é fixe, mas não tenho certeza sobre enfatizar a parte “EUA”, uma vez que o modelo base é o deepseek V3

— elie (@eliebakouch) 19 de Novembro de 2025


Independentemente disso, os ganhos de eficiência que o Cogito demonstra em relação ao DeepSeek são reais.

A Deep Cognito afirma que o Cogito v2.1 produz cadeias de raciocínio 60% mais curtas do que o DeepSeek R1, mantendo um desempenho competitivo.

Usando o que Arora chama de “Destilação e Amplificação Iteradas”—ensinando modelos a desenvolver uma melhor intuição através de ciclos de autoaperfeiçoamento—a startup treinou seu modelo em apenas 75 dias com infraestrutura da RunPod e Nebius.

Se os benchmarks forem verdadeiros, este seria o LLM de código aberto mais poderoso atualmente mantido por uma equipe dos EUA.

Por que isso importa

Até agora, a China tem definido o ritmo em IA de código aberto, e as empresas dos EUA dependem cada vez mais—quieta ou abertamente—de modelos base chineses para se manterem competitivas.

Essa dinâmica é arriscada. Se os laboratórios chineses se tornarem a infraestrutura padrão para a IA aberta em todo o mundo, as startups dos EUA perdem independência técnica, poder de negociação e a capacidade de moldar os padrões da indústria.

AI de peso aberto determina quem controla os modelos brutos dos quais todos os produtos a montante dependem.

Neste momento, os modelos de código aberto chineses (DeepSeek, Qwen, Kimi, MiniMax) dominam a adoção global porque são baratos, rápidos, altamente eficientes e constantemente atualizados. Imagem: Artificialanalysis.ai

Muitas startups nos EUA já constroem sobre eles, mesmo quando evitam publicamente admitir isso.

Isso significa que as empresas dos EUA estão construindo negócios em cima de propriedade intelectual estrangeira, pipelines de treinamento estrangeiros e otimizações de hardware estrangeiras. Estrategicamente, isso coloca a América na mesma posição que enfrentou uma vez com a fabricação de semicondutores: cada vez mais dependente da cadeia de suprimentos de outra pessoa.

A abordagem da Deep Cogito—começando a partir de um fork do DeepSeek—mostra o lado positivo ( de iteração rápida ) e o lado negativo ( de dependência ).

A abordagem do Allen Institute—construindo Olmo 3 com total transparência—mostra a alternativa: se os EUA querem liderança aberta em IA, é preciso reconstruir toda a pilha, desde os dados até as receitas de treinamento e os checkpoints. Isso é trabalhoso e lento, mas preserva a soberania sobre a tecnologia subjacente.

Em teoria, se você já gostou do DeepSeek e o utiliza online, o Cogito te dará respostas melhores na maioria das vezes. Se você o usar via API, ficará duas vezes mais feliz, pois pagará menos dinheiro para gerar boas respostas graças aos ganhos de eficiência.

O Instituto Allen adotou a abordagem oposta. Toda a família de modelos Olmo 3 chega com Dolma 3, um conjunto de dados de treinamento de 5,9 trilhões de tokens construído do zero, além de código completo, receitas e pontos de verificação de cada estágio de treinamento.

A organização sem fins lucrativos lançou três variantes de modelo—Base, Think e Instruct—com 7 bilhões e 32 bilhões de parâmetros.

“A verdadeira abertura na IA não se trata apenas de acesso—mas sim de confiança, responsabilidade e progresso compartilhado,” escreveu o instituto.

Olmo 3-Think 32B é o primeiro modelo de raciocínio totalmente aberto nessa escala, treinado com aproximadamente um sexto dos tokens de modelos comparáveis como o Qwen 3, enquanto alcança um desempenho competitivo. Imagem: Ai2

A Deep Cognito garantiu $13 milhões em financiamento inicial liderado pela Benchmark em agosto. A startup planeja lançar modelos de fronteira com até 671 bilhões de parâmetros treinados em “significativamente mais computação com melhores conjuntos de dados.”

Entretanto, a Nvidia apoiou o desenvolvimento do Olmo 3, com a vice-presidente Kari Briski a chamar-lhe essencial para “os desenvolvedores escalarem a IA com modelos abertos, construídos nos EUA.”

O instituto treinou em clusters de GPU H100 da Google Cloud, alcançando uma redução de 2,5 vezes nos requisitos de computação em comparação com o Llama 3.1 8B da Meta.

Cogito v2.1 está disponível para testes online gratuitos aqui. O modelo pode ser baixado aqui, mas cuidado: requer uma placa muito potente para funcionar.

Olmo está disponível para testes aqui. Os modelos podem ser descarregados aqui. Estes são mais amigáveis para o consumidor, dependendo de qual você escolher.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt