A CIA utilizou recentemente IA para gerar um relatório de informações sem que um analista humano o conduzisse. O vice-diretor Michael Ellis confirmou o marco na quinta-feira, num evento do Special Competitive Studies Project, assinalando uma mudança da experimentação discreta para uma declaração pública de ambição. Ellis afirmou que a agência realizou mais de 300 projectos de IA no ano passado, segundo o Politico. Em algum ponto desse conjunto, uma máquina produziu um produto de informações inteiramente por si — um primeiro na história da agência. A folha de rota a curto prazo é mais incremental. Os analistas receberiam “colegas” de IA incorporados nas plataformas de análise da agência para tratar da redacção, da edição para maior clareza e da comparação dos resultados com normas de “tradecraft”. Os seres humanos continuariam, no fim, a validar os resultados. Mas o objectivo é a velocidade — colocar produtos de informações no terreno mais depressa do que um processo apenas humano permite.
Dentro de uma década, disse Ellis, os oficiais da CIA irão gerir equipas de agentes de IA a operar como “parceiros de missão autónomos”, um modelo híbrido que escala a recolha de informações de formas que nenhum contingente humano consegue igualar sozinho. A CIA tem-se vindo a preparar para isto há anos. Em 2023, a agência de informações anunciou o seu próprio chatbot de IA para ajudar os funcionários a interpretar dados de vigilância. Em 2024, o director da CIA, Bill Burns, e o chefe do MI6, Richard Moore, revelaram em conjunto que estavam a usar activamente IA generativa para triagem de conteúdos, apoio a analistas e para acompanhar como adversários estrangeiros implementam a tecnologia. As declarações de Ellis fazem avançar significativamente essa linha temporal pública. Mais cedo este ano, a Anthropic recusou relaxar as restrições que impedem as suas ferramentas de serem usadas na vigilância doméstica ou em aplicações totalmente autónomas de armas. O secretário de Defesa, Pete Hegseth, respondeu ao designar os produtos da Anthropic como um “risco de cadeia de abastecimento”. O presidente Trump ordenou então que todas as agências federais deixassem de utilizar as ferramentas da Anthropic. A empresa contestou legalmente a medida.
Ellis não mencionou a Anthropic, mas a mensagem foi clara. “A CIA não pode permitir que os caprichos de uma única empresa condicionem a sua utilização de IA”, disse, acrescentando que a agência está a diversificar activamente entre fornecedores para se manter operacionalmente flexível. Ellis também salientou que a CIA duplicou os seus relatórios de informações estrangeiras com foco tecnológico, acompanhando como adversários como a China estão a empregar IA em semicondutores, computação em nuvem e I&D. O Center for Cyber Intelligence foi elevado a um centro de missão completo — uma medida que Ellis descreveu como crítica, tendo em conta que “a batalha da cibersegurança será uma batalha de inteligência artificial”.
Related Articles
A publicidade do ChatGPT chega à Austrália e Nova Zelândia: os utilizadores Free e Go primeiro, os planos pagos mantêm-se sem publicidade
O Grupo Hyundai Motor reorganiza-se em torno da IA e da robótica, mirando 30.000 robôs Atlas até 2030
A NEA explora a utilização de inteligência artificial na regulamentação nuclear
A China vai testar 300+ robôs humanoides na meia-maratona de Pequim a 19 de abril
EUA procuram aumentar as importações de urânio da Namíbia para alimentar centrais nucleares orientadas por IA
Executivos da OpenAI Bill Peebles e Kevin Weil Saem numa Reestruturação de Liderança