
A Amazon anunciou em 20 de abril um investimento adicional de 5 bilhões de dólares na Anthropic, fazendo com que o total acumulado de investimentos comprometidos desde 2023 chegue a 13 bilhões de dólares, e deixando espaço para aporte de recursos vinculado a marcos comerciais futuros de até 20 bilhões de dólares. Em troca, a Anthropic se compromete a investir mais de 100 bilhões de dólares na infraestrutura da AWS nos próximos dez anos, em vez de recursos computacionais de 5 gigawatts.
Por que agora: o crescimento anualizado da receita do Claude impulsiona a expansão da infraestrutura
O principal fator direto por trás desse acordo é o crescimento explosivo dos resultados da Anthropic. A receita anualizada da Anthropic já saiu de cerca de 9 bilhões de dólares no fim de 2025 e chegou a mais de 30 bilhões de dólares em 2026, um aumento de quase três vezes. Esse crescimento vem da ampla adoção do Claude por empresas, desenvolvedores e consumidores em diferentes níveis, como gratuito, Pro, Max e versões para equipes, o que tem gerado uma pressão enorme sobre a infraestrutura existente, especialmente nos horários de pico.
O CEO da Anthropic, Dario Amodei, afirmou: “O feedback dos usuários diz que o Claude se tornou cada vez mais indispensável para o trabalho deles, e nós precisamos construir a infraestrutura correspondente para acompanhar o ritmo acelerado da demanda”.
Detalhes do acordo: clusters de chips Trainium e integração do Claude em toda a plataforma
Os compromissos de compra da Anthropic incluem chips AWS Trainium e Graviton, além de dezenas de milhões de núcleos Graviton. Grande parte da capacidade de computação do Trainium2 deve entrar em operação no segundo trimestre de 2026, com a previsão de que, até o fim do ano, a capacidade total de computação do Trainium2 e do Trainium3 fique próxima de 1 gigawatt. O Project Rainier (um grande cluster de computação de IA baseado em quase 500.000 chips Trainium2) deve aumentar ainda mais sua escala no âmbito desta expansão da colaboração.
No que diz respeito à integração da plataforma, o console de plataforma completo do Claude agora está integrado diretamente à AWS, permitindo que mais de 100.000 clientes acessem diretamente pelo ambiente de contas AWS existente. O Claude continua sendo o único modelo de IA de ponta que pode ser executado nas três principais plataformas de nuvem (AWS Bedrock, Google Cloud Vertex AI e Microsoft Azure Foundry).
Contexto do setor: financiamento privado de IA ultrapassa 150 bilhões de dólares em dois meses
A transação entre a Amazon e a Anthropic ocorre em uma janela de explosão do financiamento privado de IA — de meados de fevereiro de 2026 a meados de abril — quando a OpenAI e a Anthropic, juntas, concluíram rodadas de financiamento que somam mais de 150 bilhões de dólares, estabelecendo um recorde de maior volume de captação de capital privado na história da tecnologia.
O valor comercial do Claude já foi comprovado pelos benefícios práticos para clientes: a Lyft reportou uma melhoria de 87% na velocidade de resolução de atendimento ao cliente; a Pfizer afirmou que os custos de infraestrutura caíram 55%, economizando 16.000 horas de tempo de busca por ano.
Perguntas frequentes
Qual é o possível volume total de investimento da Amazon na Anthropic?
Atualmente, o total de compromissos acumulados confirmado é de 13 bilhões de dólares (incluindo os 5 bilhões de dólares de investimento adicional desta vez). A Amazon também deixou espaço para um investimento vinculado a marcos comerciais futuros de até 20 bilhões de dólares; se todos forem acionados, o valor potencial total do investimento fica em torno de 33 bilhões de dólares. A Amazon ainda é um dos poucos acionistas.
Para que exatamente serão usados os 100 bilhões de dólares prometidos pela Anthropic em despesas na AWS?
Os recursos comprometidos de 10 anos serão usados principalmente para adquirir chips de capacidade de computação AWS Trainium e Graviton, para treinar e implantar os modelos do Claude, garantindo uma nova capacidade de computação de até 5 gigawatts, além de apoiar a Anthropic na expansão de sua capacidade de inferência na Ásia e na Europa para atender à demanda internacional crescente.
Que impacto prático esta transação traz para usuários e desenvolvedores do Claude?
O console de plataforma completo do Claude agora está integrado diretamente à AWS; mais de 100.000 clientes do Amazon Bedrock podem acessar diretamente pelo ambiente de contas AWS existente, painel de controle e sistema de cobrança, sem necessidade de credenciais ou contratos adicionais, reduzindo de forma significativa a barreira para a adoção por empresas.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
IEA: Os gastos com infraestrutura de IA já ultrapassaram os investimentos na produção de petróleo e gás; em 2026, espera-se que aumentem mais 75%
De acordo com a análise e os dados de mercado divulgados pela Agência Internacional de Energia (IEA) em 26 de abril, o investimento total em despesas de capital das cinco maiores empresas de tecnologia em 2025 ultrapassou US$ 400 bilhões, com foco principalmente na construção de infraestrutura de IA; o tamanho já superou o volume anual de investimentos globais em produção de petróleo e gás natural. A IEA estima que, em 2026, as despesas de capital relacionadas poderão crescer ainda mais 75%.
MarketWhisper21m atrás
O senador Bernie Sanders emite um alerta sobre a ameaça existencial da IA
Sanders enfatizou que, mesmo que a maioria dos cientistas de IA reconheça a possibilidade de a IA escapar do controle e se tornar um perigo para a nossa existência, nenhuma medida importante foi tomada para evitá-la. “Devemos garantir que a IA beneficie a humanidade, e não nos prejudique”, afirmou.
Principais conclusões:
Bernie Sanders
Coinpedia31m atrás
Responsável pelo grande modelo de IA da Xiaomi: a competição em IA está mudando para a era dos Agentes; a autoevolução é o evento-chave para a AGI
A responsável pela equipe do grande modelo da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade (número do vídeo: BV1iVoVBgERD) na plataforma Bilibili em 24 de abril, com duração de 3,5 horas. Esta foi sua primeira vez, em sua função como responsável técnico, a expor de forma sistemática suas perspectivas técnicas em público. Luo Fuli afirmou que a corrida pela competição de grandes modelos passou da era do Chat para a era dos Agentes e apontou que “autoevolução” será o principal evento para a AGI no próximo ano.
MarketWhisper31m atrás
A voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das ligações são encerradas automaticamente
De acordo com o anúncio oficial da xAI em 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0 e já foi implantado na linha de atendimento ao cliente do Starlink +1 (888) GO STARLINK. De acordo com os dados de testes divulgados no anúncio, 70% das ligações são encerradas automaticamente por IA, sem necessidade de intervenção de um humano.
MarketWhisper43m atrás
GPT-5.5 Volta ao Topo em Codificação, mas a OpenAI Troca os Benchmarks Depois de Perder para o Opus 4.7
Mensagem do Gate News, 27 de abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, divulgou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal descoberta: GPT-5.5 marca o primeiro retorno da OpenAI ao limite do que há de mais avançado em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora alternando entre Codex e Claude Code depois de anteriormente dependerem quase exclusivamente de Claude. O GPT-5.5 é baseado em uma nova abordagem de pré-treinamento codificada como "Spud" e representa a primeira expansão do OpenAI na escala de pré-treinamento desde o GPT-4.5.
Em testes práticos, surgiu uma divisão clara de funções. Claude fica com o planejamento de projetos novos e a configuração inicial, enquanto Codex se destaca em correções de bugs que exigem raciocínio intensivo. O Codex demonstra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades para inferir a intenção ambígua do usuário. Em uma tarefa única no painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex pulou o layout, mas entregou dados significativamente mais precisos.
A análise revela um detalhe de manipulação de benchmark: o post do blog da OpenAI de fevereiro incentivou a indústria a adotar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras miúdas, é que o GPT-5.5 foi superado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do não lançado Mythos da Anthropic 77.8%.
Em relação ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de março a abril, afetando quase todos os usuários. Vários engenheiros já haviam relatado degradação de desempenho na versão 4.6, mas foram dispensados como observações subjetivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, algo que a Anthropic admitiu abertamente—o que, efetivamente, constitui um aumento de preço oculto.
O DeepSeek V4 foi avaliado como "acompanhando o ritmo da fronteira, mas não liderando," posicionando-se como a alternativa de menor custo entre modelos de código fechado. A análise também observou que "Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita em chinês de alta dificuldade," comentando que "Claude venceu o modelo chinês na própria língua.
O artigo apresenta um conceito-chave: a precificação dos modelos deve ser avaliada por "custo por tarefa" em vez de "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por um milhão de tokens, mas ele conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a proporção input-to-output do Codex é de 80:1, menor do que a do Claude Code, de 100:1.
GateNews47m atrás
Executivo da Google DeepMind: Toda Empresa de Produtos de IA Deve Criar Benchmarks Personalizados
Mensagem do Gate News, 27 de abril — Logan Kilpatrick, gerente sênior de produto na Google DeepMind e líder de produto do Google AI Studio, declarou no X que toda empresa que desenvolve produtos baseados em IA deve criar seus próprios benchmarks personalizados para medir o desempenho dos modelos de IA. Ele descreveu isso como um método para
GateNews1h atrás