A Susquehanna Investment Research elevou a meta de preço da Intel para $80 por ação em 23 de abril, à frente do anúncio de resultados do 1T 2026 da empresa, citando forte demanda por CPUs de servidores impulsionada por cargas de trabalho de inteligência artificial agentica. A nova meta representa um potencial de alta de 25% em relação ao fechamento de terça-feira da Intel de US$ 63,81 por ação. Espera-se que as restrições de oferta atinjam o pico no 1T 2026 e se amenizem no 2T 2026, sustentando desempenho acima do sazonal para o restante do ano, de acordo com o relatório com o cliente do analista Christopher Roland.
A Susquehanna espera que os resultados da Intel no 1T 2026 atendam ou superem ligeiramente as expectativas, impulsionados principalmente por uma demanda mais forte por CPUs de servidores, mas parcialmente compensada por remessas fracas de (ODM) do fabricante original de PC. Roland observou que as tendências de remessas de ODM no 1T estão mais fracas do que o antecipado anteriormente, criando risco de queda para o segmento (CCG) de computação para clientes. A previsão do analista para o CCG fica abaixo da expectativa de consenso do mercado de uma queda sequencial de 13%.
Apesar do forte desempenho em servidores, Roland mantém uma classificação “neutra” para a Intel, citando escassez de chips de memória que está limitando a montagem de PCs. Ele espera que as remessas de ODM declinem em percentuais de dois dígitos ao longo de 2026, à medida que as escassez de chips de armazenamento persistem. No negócio de foundry da Intel, Roland caracterizou a decisão da empresa de aderir ao projeto Terafab com a SpaceX e a Tesla como “interessante” e demonstrou otimismo com a adoção por clientes externos do processo de fabricação 14A da Intel, descrevendo algumas parcerias como “muito ativas”.
Nos últimos dois anos, a narrativa da indústria de inteligência artificial foi dominada pelas capacidades de GPU — uma dinâmica que impulsionou as ações da NVIDIA a máximas históricas. As CPUs tiveram papel de apoio nos data centers de IA, principalmente lidando com controle genérico e escalonamento básico durante a fase de treinamento, onde o poder de computação paralela das GPUs lidava com as operações de matriz mais intensivas em computação.
Essa dinâmica está mudando fundamentalmente com o surgimento de cargas de trabalho de IA agentica e de aprendizado por reforço. Diferentemente da geração simples de texto, a IA agentica quebra uma única solicitação do usuário em um fluxo de trabalho completo; o modelo executa um processo inteiro em vez de gerar uma única resposta. Quando a IA passa de “computar uma vez” para “executar um fluxo de trabalho”, a dependência do sistema em CPUs aumenta significativamente. Muitas tarefas críticas não são adequadas para execução em GPU: orquestração de tarefas, escalonamento de threads, gerenciamento de processos, execução em sandbox, pré-processamento e pós-processamento, coordenação de cache e manutenção de estado são todas cargas de trabalho tradicionais de CPU. Em cenários multiagentes em que vários agentes rodam simultaneamente, acionam ferramentas e compartilham estado, as exigências sobre contagem de núcleos de CPU, contagem de threads, desempenho de thread única e capacidades de gerenciamento de memória aumentam substancialmente.
O analista-chefe da SemiAnalysis, Dylan Patel, afirmou em entrevista em 8 de abril que os paradigmas de carga de trabalho de IA estão mudando de geração simples de texto para aplicações complexas de IA agentica e aprendizado por reforço, e que as CPUs enfrentam “escassez de capacidade extremamente severa”. Essa avaliação é corroborada pela pesquisa da TrendForce: as atuais proporções de CPU para GPU em data centers de IA ficam em aproximadamente 1:4 a 1:8, mas na era da IA agentica, espera-se que essa proporção mude para 1:1 a 1:2.
A mudança estrutural está impulsionando um crescimento substancial do mercado. A Creative Strategies prevê que o mercado de CPUs para data centers vai expandir de $25 bilhão em 2026 para $60 bilhão até 2030; quando a demanda relacionada à IA agentica é considerada, o mercado endereçável pode chegar a $100 bilhão.
Essa reavaliação provocou respostas do lado da oferta. Tanto a Intel quanto a AMD anunciaram aumentos de preço em linhas selecionadas de produtos de CPU no fim do 1T 2026. Mais significativamente, a NVIDIA e a Arm anunciaram entrada no mercado de CPUs para servidores em março de 2026 — uma gigante de GPUs e uma empresa de licenciamento de IP fazendo movimentos estratégicos idênticos no mesmo mês não é coincidência, mas sim um sinal concentrado do mercado.
Os processadores Xeon da Intel já comandavam mais de 95% do mercado de CPUs de data center. Essa dominância começou a se deteriorar em 2021, quando problemas de rendimento do processo Intel 7 fizeram com que o Xeon Sapphire Rapids atrasasse quase dois anos, abrindo uma lacuna no mercado para o EPYC Milan da AMD.
A Intel planeja dois produtos carro-chefe para 2026. O Xeon 6+ (Clearwater Forest), baseado na arquitetura Darkmont, oferecerá 288 núcleos e 288 threads com um consumo térmico (thermal design power) (TDP) de aproximadamente 450 watts. O Xeon 7 (Diamond Rapids), baseado na arquitetura Panther Cove-X, chegará a até 256 núcleos e 256 threads com TDP de 650 watts. Ambos os produtos serão fabricados no processo 18A mais avançado da Intel e introduzirão pela primeira vez a tecnologia de bonding híbrido Foveros Direct. No entanto, a TrendForce alerta que os desafios contínuos de rendimento do processo 18A podem empurrar os cronogramas de produção em massa de ambos os produtos para 2027.
A trajetória competitiva da AMD parece mais estável. Seu carro-chefe EPYC Venice de 2026 utilizará o processo N2 da TSMC com arquitetura Zen 6 e empacotamento avançado CoWoS-L e SoIC, entregando 256 núcleos e 512 threads via multithreading simultâneo (SMT) — a maior contagem de threads no mercado atual. A TrendForce espera que a AMD continue ganhando participação de mercado com a Intel ao longo de 2026.
Além da Intel e da AMD, uma onda de concorrentes não tradicionais está entrando no mercado de CPUs para servidores em velocidade sem precedentes, buscando remodelar fundamentalmente as dinâmicas competitivas.
Em março de 2026, a NVIDIA anunciou a CPU Vera como um produto independente para atender à demanda dos clientes por configurações mais flexíveis de CPU para GPU. A Vera usa a arquitetura proprietária Olympus da NVIDIA, construída no processo N3 da TSMC com empacotamento CoWoS-R, e entrega 88 núcleos e 176 threads com 1,8 terabyte por segundo de largura de banda de interconexão NVLink-C2C, permitindo memória compartilhada com GPUs NVIDIA. A NVIDIA também apresentou o rack de CPU Vera, integrando 256 CPUs por rack para um total de 22.528 núcleos, 45.056 threads e 400 terabytes de memória agregada.
Também em março de 2026, a Arm revelou seu primeiro produto de CPU desenvolvido internamente, a Arm AGI CPU, encerrando 35 anos de negócios exclusivamente de licenciamento. Construída no processo N3 da TSMC com a arquitetura Neoverse V3, a AGI CPU oferece 136 núcleos e 136 threads com TDP de 300 watts, suportando memória DDR5-8800 e PCIe Gen6. A Arm lançou simultaneamente duas configurações de rack: uma versão refrigerada a ar integrando 60 CPUs AGI (8,160 núcleos, aproximadamente 180 terabytes de memória) e uma versão refrigerada a líquido que suporta 336 CPUs (45,696 núcleos e 1 petabyte de memória).
Principais provedores de serviços em nuvem estão acelerando seu próprio desenvolvimento de CPUs. A Amazon Web Services lançou a Graviton5 (192 núcleos e 192 threads no processo N3 da TSMC) em dezembro de 2025, implantando-a junto com seu ASIC de IA Trainium 3 personalizado para reduzir os custos de computação de IA. A Microsoft lançou a Cobalt 200 (132 núcleos e 132 threads no processo N3) em novembro de 2025. O Google planeja lançar o Axion C4A.metal bare-metal e o Axion N4A da próxima geração em 2026, enfatizando otimização de custo-benefício.
Embora o desempenho recente das ações da Intel seja impressionante e a forte demanda por CPUs de servidores impulsionada pela IA agentica forneça uma justificativa substancial para uma perspectiva positiva, o sentimento dos analistas permanece cauteloso diante da intensificação da concorrência e dos desafios operacionais contínuos da Intel. Dos 52 analistas que cobrem a ação acompanhada por fontes de mídia, apenas 10 atribuem uma classificação “buy” (compra), enquanto 6 atribuem uma classificação “sell” (venda) — uma concentração de recomendação de venda mais do que o dobro da média do S&P 500. O preço de negociação atual da Intel representa um prêmio de 27% em relação ao preço-alvo médio dos analistas, sugerindo que a ação valorizou rápido demais. O atual índice preço sobre lucro (P/L) da ação excede 90x, máxima histórica e 50% acima da valorização de pico durante a bolha das dot-com; a média do setor de chips para P/L é de aproximadamente 21x.
P: Por que a demanda por CPUs de servidores está disparando se GPUs dominaram a infraestrutura de IA nos últimos dois anos?
As cargas de trabalho de IA estão mudando de geração simples de texto (dominada por operações de matriz de GPU) para fluxos de trabalho de IA agentica e aprendizado por reforço que exigem envolvimento extensivo de CPU para orquestração de tarefas, escalonamento de threads, gerenciamento de processos e manutenção de estado. Essa mudança estrutural deve aumentar as proporções de CPU para GPU em data centers de IA de 1:4–1:8 para 1:1–1:2.
P: Qual é o principal risco competitivo da Intel no mercado de CPUs de servidores?
A Intel enfrenta risco de execução em seu nó de processo 18A, com a TrendForce alertando que tanto os produtos carro-chefe Xeon 6+ e Xeon 7 planejados para 2026 podem não atingir produção em massa até 2027 devido a desafios de rendimento. Enquanto isso, o EPYC Venice da AMD está no caminho para 2026 usando o processo N2 mais maduro da TSMC, e novos entrantes incluindo NVIDIA, Arm e provedores de nuvem estão lançando produtos competitivos no processo N3 da TSMC.
P: Por que a Susquehanna mantém uma classificação neutra para a Intel apesar de elevar sua meta de preço para $80?
Embora a demanda por CPUs de servidores esteja forte, a Susquehanna observa que a escassez de chips de memória está limitando a montagem de PCs e espera que as remessas de ODM declinem em percentuais de dois dígitos ao longo de 2026. A classificação neutra reflete uma visão equilibrada: os fundamentos positivos em servidores são compensados pela fraqueza no segmento de PCs e pelos riscos de execução competitiva.