Desafiar o domínio do software de IA da Nvidia! Modular cria uma plataforma de IA integrada entre hardware para enfrentar o CUDA

robot
Geração de resumo em curso

Neste momento em que a IA generativa está a varrer o mundo, quase todos os LLM, serviços em nuvem e startups de IA estão interligados pela mesma infraestrutura crítica, ou seja, o ecossistema de software CUDA da NVIDIA (. Esta estrutura de programação, originalmente desenvolvida para placas gráficas, expandiu-se gradualmente ao longo dos últimos vinte anos para se tornar o “sistema operativo invisível” que opera efetivamente na indústria de IA.

A startup chamada Modular, fundada em 2022, está tentando desafiar diretamente essa estrutura altamente centralizada e dominada por um único fornecedor. O objetivo da Modular não é criar um novo chip, mas sim desenvolver uma “plataforma de pilha de software de IA portátil”, permitindo que modelos de IA se movam livremente entre diferentes GPUs e aceleradores, sem estarem presos ao ecossistema da NVIDIA e CUDA.

2022 ponto de partida para startups, engenheiro de base avança diretamente para o núcleo CUDA

Modular foi fundado em 2022 por dois engenheiros de software de base da Apple e do Google. O CEO Chris Lattner criou o sistema de compiladores Swift e LLVM, enquanto o co-fundador Tim Davis participou da arquitetura de software crítica do Google TPU.

Ambos viveram de perto o processo de como o novo hardware “abre mercado com software”, por isso escolheram deixar grandes empresas de tecnologia e desafiar diretamente o domínio do software de IA representado pelo CUDA. Esta guerra assimétrica parece quase louca aos olhos da indústria, mas também é vista como uma das poucas equipes com a oportunidade de tentar, devido à sua compreensão profunda das camadas subjacentes do sistema.

CUDA é difícil de substituir, a estrutura de grilhões da indústria de IA

O CUDA era originalmente apenas uma ferramenta para permitir que as placas gráficas fossem programáveis, mas com a ascensão do aprendizado profundo, expandiu gradualmente para um ecossistema completo que abrange linguagens, bibliotecas, compiladores e motores de inferência.

Para a maioria das equipas de IA, é praticamente impossível evitar o CUDA apenas usando GPUs da NVIDIA. Mesmo que existam GPUs da AMD, TPUs ou chips desenvolvidos internamente por provedores de nuvem no mercado, cada tipo de hardware ainda está ligado a um software proprietário, levando os desenvolvedores a optar naturalmente pelo CUDA, que é o mais maduro e completo em termos de ferramentas, formando uma estrutura industrial altamente lock-in.

Engenharia sem incentivos tornou-se um ponto de ruptura.

Lattner apontou que o software de IA portátil, que é cruzado entre chips e fornecedores, não é irrelevante, mas sim que “ninguém tem incentivos suficientes para arcar com os custos”. Este tipo de engenharia é extremamente difícil, com um longo período de recuperação, e a curto prazo, quase não se vê resultados comerciais, mas é uma capacidade que toda a indústria anseia.

É precisamente essa contradição que levou a Modular a optar por investir antecipadamente no desenvolvimento a longo prazo de sistemas subjacentes antes da explosão da IA generativa, e a deliberadamente evitar os holofotes do mercado nos primeiros três anos após a sua fundação.

Três anos de trabalho discreto, com capital e equipe gradualmente a postos.

Até 2025, a Modular angariou cerca de 380 milhões de dólares em financiamento, com investidores incluindo várias das principais empresas de capital de risco do Vale do Silício. Após completar a mais recente ronda de financiamento em setembro de 2025, a empresa foi avaliada em cerca de 1,6 mil milhões de dólares.

Esses recursos permitem que a Modular recrute engenheiros experientes do Google e da Apple, formando uma equipe focada em compiladores, software de sistema e infraestrutura de IA, aprimorando continuamente a pilha de software completa.

Arquitetura de software em três camadas, desde a linguagem até o cluster de computação

O núcleo tecnológico do Modular é composto por três camadas, que são:

Camada superior: para Mammoth, utilizado para ajudar as empresas na programação e gestão de poder computacional em ambientes com múltiplas GPUs e múltiplos fornecedores, resolvendo problemas de implantação e operação.

Camada intermediária: é o motor de inferência MAX, responsável pela execução real do modelo, já suporta NVIDIA, AMD e Apple Silicon.

Camada mais baixa: é a linguagem de programação Mojo, com uma sintaxe próxima ao Python e desempenho semelhante ao C++, podendo ser integrada com frameworks de IA populares.

2025 validação chave, camada de computação unificada oficialmente formada

Em setembro de 2025, a Modular anunciou os resultados de testes cruciais, demonstrando que na mesma plataforma de software, é possível operar simultaneamente a NVIDIA Blackwell B200 e a AMD MI355X, alcançando desempenho de alto nível, sendo que a MI355X teve um desempenho que superou em cerca de 50% o software nativo da AMD.

Depois, em 22/12, a Modular Platform 25.6 foi oficialmente lançada, com suporte completo para GPUs de data centers e de consumo, e pela primeira vez permitindo que o Mojo suporte diretamente o Apple Silicon. O oficial descreveu isso como “Escreva uma vez, execute em qualquer lugar”, ou seja:

“Os desenvolvedores não precisam escrever uma versão diferente do código que foi escrito em Mojo para NVIDIA, AMD e Apple Silicon; um único código pode ser executado em diferentes GPUs e hardware de diferentes fornecedores.”

Simboliza a unificação da camada de computação AI que vai do conceito à implementação prática.

Este artigo desafia o domínio do software de IA da NVIDIA! Modular cria uma plataforma de IA integrada entre hardware em confronto com o CUDA, que apareceu pela primeira vez na Chain News ABMedia.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt