Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Acabei de ler alguns artigos investigativos sobre o que aconteceu no final de fevereiro, durante a Operação Epic Fury, e honestamente, tudo parece uma aula de como a guerra moderna realmente funciona agora—exceto que ninguém está realmente falando sobre a infraestrutura por trás.
Aqui está o que me chamou a atenção: isto não foi apenas mais uma operação militar. Foi basicamente um teste de resistência de IA numa zona de guerra ao vivo. Todo o evento dependia de comprimir o que os militares chamam de ciclo sensor-decide-disparador em minutos, às vezes segundos. Quem conseguir quebrar essa compressão terá a vantagem geopolítica na próxima década.
Deixe-me explicar quem são os atores, porque é aí que fica interessante.
A OpenAI basicamente passou de "não fazemos coisas militares" para se tornar o que pode ser a assinatura SaaS mais cara do Pentágono em cerca de dois anos. Sam Altman anunciou que tinham fechado um acordo para implantar modelos GPT em redes classificadas para análise de inteligência, tradução, simulações de combate. As linhas vermelhas públicas parecem razoáveis—sem vigilância doméstica em massa, humanos permanecem no ciclo de decisões letais. Mas aqui está o ponto: alimentar imagens de satélite, inteligência de sinais, streams de redes sociais nesses modelos e tê-los classificando alvos, prevendo movimentos, avaliando riscos? Isso é basicamente um cérebro de campo de batalha. E aparentemente vale centenas de milhões.
A Anthropoic seguiu o caminho oposto. Mantiveram-se firmes em limites éticos mais rígidos durante as negociações com o Pentágono e foram completamente demolidos por isso. O Secretário de Defesa literalmente os rotulou de "risco na cadeia de suprimentos"—o mesmo rótulo usado anteriormente para empresas chinesas de tecnologia. Esse rótulo basicamente significava que os contratantes militares tinham seis meses para remover Claude de seus sistemas. A mensagem foi clara para todos que estavam assistindo: não desafie o que o Pentágono quer.
Mas aqui é que está o verdadeiro poder: Microsoft e Google. Se as empresas de IA são o cérebro, esses dois são o sistema nervoso central real. Sem a infraestrutura de nuvem deles, todos esses modelos são apenas slides de PowerPoint.
A Microsoft Azure viu o uso de machine learning pelo exército israelense subir 64 vezes em poucos meses, começando no final de 2023. Eles estão processando volumes de dados equivalentes à Biblioteca do Congresso inteira. Está sendo usado para transcrever comunicações, processar dados de vigilância e trabalhar com sistemas locais para gerar automaticamente listas de alvos. A Microsoft levou alguma crítica e reduziu certos serviços, mas os contratos principais de IA militar continuaram a rodar.
O Projeto Nimbus do Google é ainda mais carregado politicamente—US$1,2 bilhão em infraestrutura de nuvem para Israel desde 2021. Funcionários protestaram contra isso por anos. A infraestrutura apoia simulações de campo de batalha, fusão de inteligência, planejamento de alvos complexos. O Google continua dizendo que não é para uso militar ofensivo, mas todo mundo na indústria sabe que essa é a funcionalidade principal.
Agora, aqui é que fica realmente perturbador. Israel tem operado sistemas como Lavender, Gospel e "Where's Daddy" que basicamente automatizam a identificação de alvos em grande escala. Lavender mapeou padrões comportamentais de quase todos os homens adultos em Gaza, atribuindo "pontuações de militância" numa escala de 1 a 100, identificando 37.000 alvos suspeitos. Gospel marca edifícios para bombardeio. "Where's Daddy" rastreia quando os alvos voltam para casa com suas famílias para maximizar o impacto de vítimas. A revisão humana aparentemente leva cerca de 30 segundos por alvo.
A parte assustadora? A lógica técnica desses sistemas é portátil. Se você tem dados de comunicação, trajetórias de localização, redes sociais de qualquer região, teoricamente pode aplicar a mesma lógica de fábrica de matar algoritmicamente a qualquer conjunto de alvos. Alguns analistas acham que foi exatamente isso que aconteceu durante a Epic Fury—uma guerra algorítmica ao estilo Gaza escalada até Teerã.
Do ponto de vista de mercado, o que está acontecendo é selvagem. Está se formando um novo complexo IA-Nuvem-Defesa, onde o binário tradicional de ações de tecnologia versus defesa não se aplica mais. As empresas dispostas a negociar questões éticas estão recebendo os contratos gigantescos. As que mantêm princípios rígidos são rotuladas como riscos de segurança e ficam de fora. Enquanto isso, os gigantes da nuvem absorvem a maior parte do fluxo de caixa real, enquanto carregam bombas-relógio reputacionais e regulatórias cada vez maiores.
A estrutura de incentivos aqui é brutal: quando os contratos vão para quem está mais "alinhado com a segurança nacional", as linhas vermelhas éticas se tornam uma desvantagem competitiva. Isso não é apenas um problema de negócios—é um problema sistêmico que todo futuro empreendedor e investidor acaba aprendendo da pior forma.
E aqui está o que me faz continuar pensando nisso: Epic Fury pode ser apenas o prólogo. Seja o próximo conflito na Estreito de Taiwan, na Europa Oriental ou em outro lugar no Oriente Médio, o ritmo da guerra não será mais definido por contagem de tanques ou artilharia. Será definido por modelos treinados com petabytes de dados classificados e infraestrutura de nuvem conectada a milhares de GPUs.
Antes de continuarmos terceirizando mais cadeias de morte para um punhado de empresas de modelos e nuvem, alguém precisa responder seriamente quem é realmente responsável quando recomendações algorítmicas se transformam em coordenadas de bombardeio. Porque, neste momento, essa questão parece estar sendo sistematicamente evitada.