
Fireworks AI publica uma pré-visualização da Fireworks Training, posicionando a empresa de um fornecedor de infraestruturas de inferência apenas para uma plataforma unificada “formação + implementação”. Esta empresa de infraestruturas de IA, fundada por Lin Qiao (ex-engenheira da Meta, que participou na construção do PyTorch), tem atualmente uma avaliação de 4 mil milhões de dólares e já atinge 15 biliões de tokens por dia.
A arquitetura em três camadas do Fireworks Training foi concebida para utilizadores com diferentes antecedentes técnicos, permitindo que as equipas de produto, engenheiros de ML e investigadores concluam na mesma plataforma o processo completo de treino até à implementação:
Training Agent (camada sem código): destinado a equipas de produto sem infraestruturas base de ML; descreva a tarefa e carregue os dados para concluir o fluxo ponta a ponta. Atualmente suporta afinação LoRA
Managed Training (camada de engenheiros): destinado a engenheiros de ML; suporta afinação SFT, DPO e por aprendizagem por reforço, incluindo a capacidade de treino com todos os parâmetros
Training API (camada de investigação): destinado a equipas de investigação; permite definir funções de perda e ciclos de treino, suportando algoritmos de aprendizagem por reforço como GRPO, DAPO, etc.
A escala de treino com todos os parâmetros é significativamente variada—desde um Qwen3 8B num único nó, até modelos com biliões de parâmetros na Kimi K2.5, em 64 GPUs NVIDIA B200, cobrindo a gama completa de escalas dos modelos open source mais atuais.
Entre os atuais clientes de inferência da Fireworks AI, já existem três empresas líderes de aplicações de IA que concluíram treino avançado de aprendizagem por reforço e publicaram dados de desempenho concretos.
Vercel: treinou um modelo de correção automática para o produto de geração de código v0; a taxa de geração de código sem erros atinge 93%. Em condições equivalentes, o Claude Sonnet 3.5 é apenas de 62%; a latência ponta a ponta melhorou 40 vezes face ao modelo fechado anteriormente utilizado.
Genspark: realizou afinação por aprendizagem por reforço no modelo open source de biliões de parâmetros Kimi K2 para construir um agente de pesquisa profunda. O volume de chamadas a ferramentas aumentou 33% e o custo de inferência diminuiu 50%.
Cursor: concluiu de forma distribuída o treino de aprendizagem por reforço do Composer 2 em 3 a 4 clusters globais; atualmente ocupa o primeiro lugar no CursorBench e conseguiu partilhar o mesmo pool de recursos de GPU para treino e inferência em produção.
A principal diferenciação tecnológica que a Fireworks AI destaca reside na “consistência numérica” entre treino e inferência. Para modelos MoE (mistura de especialistas), pequenas discrepâncias numéricas no estado oculto podem gerar efeitos em cascata amplificados nas decisões de roteamento do especialista, fazendo com que o comportamento do modelo aprendido no ambiente de treino não possa ser reproduzido completa e fielmente na inferência.
A Fireworks publica os valores do desvio de KL entre treino e inferência para todos os modelos suportados; todos os modelos ficam abaixo de 0.01, oferecendo uma referência consistente e quantificável para comparação, permitindo aos programadores avaliar a estabilidade do comportamento do modelo ao transitar do treino para a implementação em produção.
A Fireworks AI é uma empresa de infraestruturas de inferência de IA, fundada por Lin Qiao, ex-engenheira da Meta, que participou na construção do PyTorch. A empresa tem atualmente uma avaliação de 4 mil milhões de dólares, um volume diário de 15 biliões de tokens e clientes principais que incluem Cursor, Vercel, Genspark, entre outras aplicações de IA mainstream.
Training Agent é para equipas de produto sem infraestruturas base de ML (operação sem código); Managed Training é para engenheiros de ML (suporta treino completo com SFT, DPO e aprendizagem por reforço); Training API é para equipas de investigação (permite definir funções de perda e ciclos de treino, suportando algoritmos como GRPO, DAPO, etc.).
O desvio de KL mede as discrepâncias numéricas entre os ambientes de treino e inferência; quanto maior a discrepância, mais instável é o comportamento do modelo após a implementação. Isto é particularmente crucial para modelos MoE—pequenas discrepâncias podem ser ampliadas até diferenças nas decisões de roteamento. A Fireworks AI, ao publicar métricas quantificáveis, permite que os programadores avaliem de forma objetiva a qualidade de consistência do modelo do treino até à implementação.