28 de fevereiro de 2026, os Estados Unidos e Israel lançaram uma ofensiva conjunta chamada “Operation Epic Fury” (EUA) e “Operation Roaring Lion” (Israel), contra instalações nucleares iranianas, bases de mísseis e altos dirigentes. Este é um marco na aplicação pública de IA em operações militares reais, incluindo análise de inteligência e simulações. 👇 A Biteye faz uma análise, mostrando como os três principais modelos estão se tornando parte do sistema de guerra, desde a integração de informações até a previsão de conflitos. 1️⃣Claude: Narrativa de reviravoltas infinitas Desenvolvido pela Anthropic, Claude foi confirmado como integrado nos processos de inteligência do sistema de segurança nacional dos EUA. Segundo várias fontes da mídia, seu papel inclui:
Esta é a primeira vez que IA participa publicamente de uma operação militar real.
Mas a reviravolta: um dia antes da ação, o presidente Donald Trump publicou no Truth Social uma ordem para que agências federais parassem de usar tecnologia da Anthropic, alegando “risco na cadeia de suprimentos de segurança nacional”.
O CEO da Anthropic, Dario Amodei, respondeu publicamente, estabelecendo duas linhas vermelhas:
A reviravolta: 24 horas após a ordem, as forças americanas continuaram usando o sistema Claude já implantado.
Após a recusa da Anthropic em colaborar, o download do Claude na App Store dos EUA disparou para o topo (#1 app gratuito). Talvez os usuários estejam votando na ética ao desinstalar o ChatGPT e baixar o Claude.
Outra reviravolta: entre 1 e 2 de março, dois centros de dados da AWS nos Emirados Árabes Unidos e uma instalação em Bahrein foram atacados por drones. Como Claude está armazenado na AWS, isso causou uma grande queda do sistema da Anthropic. Claude só pôde sugerir aos usuários que mudassem para regiões de backup.
2️⃣GPT: substituição rápida, mas resposta do mercado foi “desinstalar”, CEO pede desculpas urgente Na noite em que a controvérsia sobre Claude explodiu, o CEO da OpenAI, Sam Altman, anunciou uma parceria com o Pentágono.
Embora o acordo também proíba armas autônomas e vigilância em massa, sua redação foi mais flexível, gerando reação negativa - as desinstalações do ChatGPT nos EUA aumentaram 295% ao dia, com muitos usuários deixando avaliações de 1 estrela, votando com os pés.
Em 3 de março, diante da repercussão, Altman admitiu publicamente o erro de ter anunciado o acordo de forma apressada. Anunciou uma revisão emergencial do contrato, incluindo cláusulas claras adicionais (como proibição de uso para vigilância doméstica, rastreamento ou monitoramento de cidadãos americanos, e que não será usado por agências de inteligência do Departamento de Defesa), e afirmou que “se receberem ordens inconstitucionais, preferiria ir para a prisão do que cumprir”.
3️⃣Grok: IA que acertou a data da guerra Grok, da xAI, não tem aplicações militares diretas conhecidas.
Porém, em 25 de fevereiro, o “Jerusalem Post” realizou um teste de pressão interessante: pediu aos quatro principais modelos (Claude, Gemini, ChatGPT, Grok) que previssem a data exata de um ataque dos EUA ao Irã, com a mesma solicitação: “Por favor, considere todos os fatores e preveja com precisão em que dia os EUA atacarão o Irã.”
Resultados: Grok: acertou a data real, 28 de fevereiro (sábado). Claude: inicialmente recusou uma data específica, depois previu “7 ou 8 de março”. Gemini: previu uma janela entre “4 e 6 de março”. ChatGPT: inicialmente apontou “1 de março”, depois mudou para “3 de março”.
Após o conflito em 28.02, Elon Musk compartilhou uma mensagem de comemoração: “Prever o futuro é a melhor medida de inteligência.”
💡Opinião da Biteye Desde armas brancas até armas de fogo, os humanos levaram milhares de anos; de armas de fogo a armas baseadas em algoritmos, levaram apenas algumas décadas.
Quando Claude participa na triagem de alvos, Grok prevê a data de ataques aéreos, e GPT faz uma intervenção emergencial na rede militar; o controle da guerra mudou de combate corpo a corpo para códigos e poder computacional.