As Forças Armadas dos EUA introduziram sistemas de IA para comprimir a cadeia de ataque letal para poucos segundos, aumentando a eficiência do ataque de precisão, mas, devido a julgamentos errados, provocaram vítimas civis e deram origem a uma polémica sobre a responsabilização.
A inteligência artificial está a remodelar rapidamente a forma como a guerra moderna é conduzida. De acordo com informações de várias fontes, os EUA já terão introduzido recentemente sistemas de IA em operações militares para reconhecimento de alvos e decisões de ataque, fazendo com que os processos tradicionais, que antes demoravam vários dias para recolha e análise de informações, sejam comprimidos para minutos ou até segundos.
O sistema central inclui a plataforma inteligente Maven desenvolvida pela Palantir, que combina dados provenientes de satélites, drones e registos históricos de inteligência, e integra-os e analisa-os através de modelos de linguagem de grande escala. O sistema pode gerar automaticamente uma lista de alvos de ataque, com coordenadas GPS, tipos de armas recomendados e até uma avaliação jurídica preliminar, para permitir que os comandantes decidam rapidamente.
O Comando Central dos EUA afirma que a IA pode ajudar o sistema de comando a filtrar rapidamente sinais-chave a partir de enormes quantidades de informação, melhorando a eficiência da decisão e o ritmo das operações.
No entanto, isso também significa que o ritmo do campo de batalha acelera ainda mais, passando gradualmente de «decisão liderada por humanos» para «colaboração homem-máquina», e até surgindo a tendência de uma elevada dependência de juízos da máquina em certos cenários.
Leitura adicional
The Wall Street Journal: depois de Trump impor uma proibição contra a Anthropic, EUA e Israel continuam a depender de Claude nos ataques aéreos ao Irão
A introdução da IA reduz significativamente as barreiras da guerra, tornando progressivamente as capacidades de ataque de precisão, que antes dependiam de vastos sistemas de informações, mais fáceis de replicar e até de terceirizar. De acordo com um relatório da rede de notícias da ABC News, no caso do Irão, a Guarda Revolucionária já começou a utilizar imagens de satélite comerciais e ferramentas de análise de IA para estabelecer rapidamente uma base de dados de alvos e realizar ataques de precisão.
A tecnologia de análise de imagens fornecida pela empresa de IA de geoespacial chinesa MizarVision consegue reconhecer automaticamente instalações de aeroportos, sistemas de radar, zonas de armazenamento de combustível e centros de comando, e acrescenta etiquetas geográficas para integração direta nos sistemas de operações. Esta tecnologia faz com que capacidades que antes dependiam de satélites militares altamente sigilosos se transformem em recursos que podem ser obtidos através de plataformas comerciais.
Fonte da imagem: a tecnologia de análise de imagens fornecida pela empresa de IA de geoespacial chinesa MizarVision, na ABC News
A análise indica que o surgimento desta «inteligência militar descentralizada» permite que países pequenos e médios ou forças de guerra assimétrica também alcancem ataques de precisão com custos mais baixos. Por exemplo, ao visar nós críticos como sistemas de defesa aérea, instalações de abastecimento de combustível e instalações de manutenção, é possível enfraquecer eficazmente a capacidade de combate global do adversário, em vez de realizar bombardeamentos abrangentes.
No entanto, a alta eficiência da IA não trouxe a mesma medida de precisão. Algumas avaliações indicam que a taxa de acerto do reconhecimento de alvos dos sistemas de IA é de cerca de 60%, ainda inferior ao nível de cerca de 84% dos analistas humanos. Esta diferença, na prática, pode trazer consequências graves.
Numa recente operação de ataque aéreo, uma escola primária de raparigas no Irão foi listada como alvo de ataque, causando mais de 165 mortes de civis. Aquele alvo é considerado um dos itens de uma lista gerada com apoio da IA. O Pentágono afirmou que o incidente envolveu informação desatualizada; que já foi iniciada uma investigação, mas o incidente gerou forte atenção no Congresso dos EUA e na comunidade internacional.
Mais de 120 membros do Congresso pediram esclarecimentos sobre o papel da IA na tomada de decisões e questionaram quem deve ser responsabilizado quando ocorre um erro. Especialistas em guerra apontam que, quando o processo de decisão é automatizado, «a cadeia de responsabilidade» se torna mais difusa, estendendo-se do comandante militar aos engenheiros de software e aos fornecedores de tecnologia, enquanto as fronteiras entre a lei e a ética enfrentam desafios sem precedentes.
O conflito também revela outra tendência-chave: a fronteira entre tecnologia comercial e operações militares está a desaparecer rapidamente. O Irão já anunciou publicamente várias empresas de tecnologia dos EUA como potenciais alvos de ataque, incluindo fornecedores de serviços de cloud e infraestruturas de IA, demonstrando que o campo de batalha se expandiu para além de bases militares tradicionais, passando para a camada digital e de infraestruturas.
Alguns ataques chegaram até a abranger centros de dados em cloud na região do Médio Oriente, reflectindo que a guerra com IA não é apenas um confronto militar, mas também envolve a segurança das infraestruturas digitais e das cadeias globais de abastecimento. Quando os sistemas de IA dependem da cloud comercial para funcionar, estas plataformas também se tornam um dos alvos estratégicos.
Os especialistas afirmam que, no futuro, a concorrência central nas guerras deixará de ser apenas a quantidade de armas ou a intensidade do poder de fogo, e passará a ser quem consegue analisar os dados mais rapidamente e transformá-los em acção.
A IA não só acelera as decisões de guerra como também amplifica erros e riscos; na ausência de uma supervisão eficaz e de mecanismos de transparência, poderá surgir um conflito difícil de conciliar entre eficiência e humanidade.
Este conteúdo foi gerado pela Agent de Criptografia, que compila informações de várias fontes, e foi revista e editado pelo «Cidade Criptografada»; neste momento ainda se encontra em fase de formação. Pode haver desvios de lógica ou erros de informação. O conteúdo serve apenas para referência; não o encare como uma recomendação de investimento.
Related Articles
O Mythos de Claude ameaça a segurança financeira? O ministro das Finanças dos EUA e o presidente da Reserva Federal reúnem-se de emergência para alertar para os riscos
DownDetector: Os utilizadores reportam uma falha no serviço do Claude AI
Responder a uma pergunta: se a IA te permitir aumentar a eficiência em cinco vezes, queres reduzir 80% dos custos ou fazer o trabalho cinco vezes mais?
Análise em profundidade da Nous Research: o laboratório de IA descentralizada que aposta numa avaliação de 1 mil milhões da Paradigm, com uma decomposição completa do modelo Hermes e da rede Psyche
A OpenAI elogiou numa nota de arquivo a parceria com a Amazon, afirmando que a Microsoft limitou a sua capacidade de alcançar clientes
A Secretaria de Inovação e Tecnologia de Hong Kong e o Gabinete Nacional de Informação da Internet assinaram um memorando de entendimento de cooperação, abrangendo áreas como IA, dados transfronteiriços e blockchain