
De acordo com o The Information, a 28 de abril, a Google assinou um acordo para fornecer ao Pentágono modelos de inteligência artificial (IA) destinados a tarefas confidenciais. O New York Times, citando fontes com conhecimento do assunto, afirma que o acordo permite ao Departamento de Defesa dos EUA usar a IA da Google para fins governamentais legais, com características semelhantes ao acordo de implementação de IA confidencial que o Pentágono assinou no mês passado com a OpenAI e a xAI.
Segundo o relatório do New York Times citando fontes com conhecimento do assunto, o acordo entre a Google e o Pentágono permite ao DoD utilizar os modelos de IA da Google em trabalho confidencial. O Pentágono já tinha concluído, no mês passado, assinaturas semelhantes com a OpenAI e a xAI, permitindo a implementação de modelos de IA em redes confidenciais; o acordo da Google é o caso mais recente de expansão da cooperação em IA do Pentágono.
Em declarações ao New York Times, um porta-voz da Google disse: «Temos o prazer de fazer parte de uma aliança alargada composta por laboratórios de IA de referência, empresas tecnológicas e de cloud, para prestar serviços e infraestruturas de IA à segurança nacional». A Decrypt contactou a Google para comentar, até à data de publicação do relatório a Google ainda não tinha respondido.
De acordo com o relatório do New York Times, antes de a assinatura do acordo ter ocorrido, centenas de colaboradores da Google já tinham subscrito uma carta aberta, dirigida ao CEO Sundar Pichai, instando a empresa a não fornecer ao Pentágono sistemas de IA para tarefas confidenciais.
A carta aberta escreveu: «Queremos que a IA beneficie a humanidade, e não que seja usada para fins desumanos ou extremamente prejudiciais. Atualmente, a única forma de garantir que a Google não tenha qualquer ligação a este tipo de danos é recusar qualquer carga de trabalho confidencial. Caso contrário, este tipo de utilização poderá acontecer sem o nosso conhecimento ou sem que possamos impedir.»
A carta enumera ainda «armas autónomas fatais e vigilância em grande escala» como principais preocupações, alertando que «tomar agora uma decisão errada causará um dano irreparável à reputação, aos negócios e à posição do mundo da Google».
De acordo com o relatório do New York Times, o secretário da Defesa dos EUA, Pete Hegseth, disse, durante uma intervenção em janeiro deste ano na Starbase de Elon Musk, que: «Os EUA precisam de vencer a competição estratégica pela supremacia tecnológica do século XXI», e acrescentou: «Cada uma das nossas redes não confidenciais e confidenciais do nosso departamento irá, em breve, implementar modelos de IA de nível mundial.» A partir daí, o Pentágono acelerou o ritmo para chegar a acordos com as principais empresas de IA.
No que toca ao contexto relacionado, segundo relatórios pertinentes, em março deste ano o Pentágono classificou a Anthropic como uma empresa de «risco na cadeia de abastecimento», devido a o CEO da Anthropic, Dario Amodei, ter recusado permitir ao governo federal o uso ilimitado dos seus modelos de IA; posteriormente, a Anthropic processou o Pentágono com base nessa determinação e procurou continuar a colaborar com outros departamentos governamentais.
Segundo o relatório do New York Times citando fontes com conhecimento do assunto, o acordo permite ao DoD usar a IA da Google para «qualquer finalidade governamental legal». Um porta-voz da Google afirma que a empresa defende que a IA não deve ser usada para vigilância interna em grande escala ou para armas autónomas sem supervisão humana.
De acordo com o relatório do New York Times, no mês passado o Pentágono assinou, respetivamente, acordos com a OpenAI e a xAI que permitem implementar IA em redes confidenciais; o acordo da Google é o caso mais recente de cooperação semelhante.
De acordo com relatórios relacionados, em março deste ano o Pentágono classificou a Anthropic como uma empresa de «risco na cadeia de abastecimento», devido a a Anthropic se ter recusado a permitir ao governo federal o uso ilimitado dos seus modelos de IA; posteriormente, a Anthropic processou o Pentágono com base nessa determinação e procurou continuar a colaborar com outros departamentos governamentais.
Related Articles
O custo da tokenização do idioma chinês do Claude é 65% mais alto do que o do inglês; a OpenAI apenas 15% mais
Analista de semicondutores optimista com a corrida da IA “pelo menos mais três anos”: o empacotamento avançado é o verdadeiro gargalo da indústria
A AWS alarga a integração da OpenAI no Amazon Bedrock
Investigadores da OpenAI: os sistemas de IA poderiam lidar com grande parte do trabalho de investigação em dois anos
Carlos III reúne-se com seis CEOs de tecnologia dos EUA, incluindo Jensen Huang, Jeff Bezos e Tim Cook, para discutir o financiamento de startups no Reino Unido
Remessas Globais de Óculos Inteligentes AR Aumentam 98% em 2025, Impulsionadas pelo Ecrã Ray-Ban da Meta e pela Tecnologia de Onda Guiada