Pentágono 'Próximo' de Punir IA Anthropic Como 'Risco na Cadeia de Suprimentos' Por Termos de Uso Militar do Claude: Relatório

(MENAFN- Live Mint) Uma disputa crescente sobre como a inteligência artificial deve ser usada na guerra moderna está agora levando o Pentágono a dar um passo extraordinário: tratar uma importante empresa americana de IA como uma ameaça à segurança.

O Secretário de Defesa Pete Hegseth está “próximo” de cortar laços comerciais com a Anthropic e de designar a empresa como um “risco na cadeia de abastecimento”, disse um alto funcionário do Pentágono à Axios — uma medida que penalizaria efetivamente não apenas a Anthropic, mas também qualquer contratante que dependa de sua tecnologia.

** Também Leia** | Pentágono está “farto” da Anthropic por causa da política de uso do Claude, e pode cortar laços: reportagem

O mesmo funcionário descreveu a decisão prospectiva para a Axios de forma direta: “Vai ser uma dor enorme de lidar para desvincular, e vamos garantir que eles paguem um preço por forçar nossa mão assim.”

Uma punição geralmente reservada para adversários, agora dirigida a uma empresa de IA dos EUA

A ameaça de designação de “risco na cadeia de abastecimento” do Pentágono para a Anthropic AI é raramente usada contra empresas domésticas e é mais comumente associada a entidades ligadas a poderes estrangeiros hostis. Aplicá-la à Anthropic representaria uma escalada significativa na tentativa da administração Trump de garantir que os sistemas de IA usados pelo exército estejam disponíveis sem condições restritivas.

Também enviaria um sinal claro para o setor de tecnologia mais amplo: na visão do Departamento de Defesa, parcerias de segurança nacional exigem conformidade com padrões operacionais militares — não as linhas vermelhas éticas traçadas por empresas privadas.

O papel único do Claude dentro de redes classificadas torna o impasse especialmente delicado

A disputa é complicadapor um fato operacional simples. O Claude da Anthropic é atualmente o único modelo de IA de fronteira acessível nos sistemas classificados do exército dos EUA, dando à empresa uma posição estratégica que nenhum concorrente ainda igualou.

Funcionários do Pentágono descrevem internamente o Claude como excepcionalmente eficaz em fluxos de trabalho governamentais especializados. Mas a presença do sistema em redes sensíveis também aumentou a frustração dentro dos círculos de defesa, onde oficiais argumentam que as restrições de uso da Anthropic são incompatíveis com as realidades do planejamento militar.

Como a Axios relatou na sexta-feira, o Claude foi usado durante a operação contra Maduro em janeiro — um detalhe que ilustra como a IA generativa migrou rapidamente de experimentos para operações no mundo real.

O conflito central: se o Pentágono deve aceitar salvaguardas de IA como condição de acesso

No centro do confronto está uma disputa filosófica e legal: se um desenvolvedor de IA pode ditar como seu modelo é usado uma vez incorporado em sistemas governamentais.

A Anthropic, liderada pelo CEO Dario Amodei, mantém uma posição firme em limitar certas categorias de uso. A empresa estaria disposta a afrouxar seus termos, mas quer garantias de que o Claude não será usado para permitir vigilância em massa de americanos ou para ajudar no desenvolvimento de armas capazes de disparar sem envolvimento humano direto.

Funcionários do Pentágono argumentam que tais restrições são demasiado rígidas para serem viáveis. Afirmam que a atividade militar moderna envolve inúmeras situações ambíguas, e que tentar pré-definir limites em linguagem contratual poderia restringir operações legais de maneiras imprevisíveis.

Em negociações não apenas com a Anthropic, mas também com a OpenAI, Google e xA, os negociadores do Pentágono insistiram no direito de usar ferramentas de IA para “todos os propósitos legais”.

O Pentágono enquadra a revisão como uma questão de prontidão para combate

A linguagem pública da administração tem se tornado cada vez mais combativa, apresentando a questão como uma de preparação militar, e não de governança corporativa.

O porta-voz principal do Pentágono, Sean Parnell, disse à Axios: “O relacionamento do Departamento de Guerra com a Anthropic está sendo revisado. Nossa nação exige que nossos parceiros estejam dispostos a ajudar nossos combatentes a vencer qualquer luta. No final, trata-se de nossos soldados e da segurança do povo americano.”

A declaração sugere que o Pentágono vê o conflito não como uma divergência técnica, mas como uma questão de se uma empresa privada de IA está disposta a alinhar-se totalmente com os objetivos de defesa.

A Anthropic insiste que as discussões permanecem construtivas enquanto defende suas linhas vermelhas

A Anthropic tentou se posicionar como cooperativa, ao mesmo tempo em que argumenta que certas restrições são necessárias, dada a potência dos sistemas de IA modernos.

Um porta-voz da Anthropic disse à Axios: “Estamos tendo conversas produtivas, de boa fé, com o DoD sobre como continuar esse trabalho e acertar essas questões novas e complexas.”

** Também Leia** | Anthropic levanta US$30 bilhões: será essa a maior captação de recursos em IA?

O porta-voz também reiterou o compromisso da empresa com trabalhos de segurança nacional, destacando que o Claude foi o primeiro modelo de IA implantado em redes classificadas — uma afirmação que se tornou central para a posição da Anthropic em Washington.

A questão sombria: a lei de vigilância não foi feita para IA generativa

A confrontação também está expondo um vácuo regulatório. As autoridades de vigilância dos EUA existentes foram criadas para eras anteriores de processamento de dados, não para sistemas de IA capazes de extrair padrões, construir perfis e gerar inferências em grande escala.

** Também Leia** | Anthropic atinge avaliação de US$380 bilhões ao intensificar a competição com a OpenAI

O Pentágono já possui o poder de coletar grandes volumes de informações pessoais, desde atividades em redes sociais até permissões de porte de armas ocultas. Críticos alertaram que a IA poderia ampliar essas capacidades de maneiras que dificultariam a fiscalização, aumentando o risco de civis serem alvo de análises automatizadas.

A posição da Anthropic reflete essas preocupações. No entanto, funcionários do Pentágono argumentam que a permissibilidade legal deve ser o padrão decisivo — e que o Departamento de Defesa não pode aceitar condições contratuais que prejudiquem missões legais.

Um efeito dominó amplo para contratantes se a Anthropic for colocada na lista negra

O aspecto mais disruptivo da ameaça de “risco na cadeia de abastecimento” não é o que ela faria diretamente à Anthropic, mas o que exigiria de outros.

** Também Leia** | Por que Jio, Anthropic, Ericsson e outros formaram a Trusted Tech Alliance

Se implementada, exigiria que as muitas empresas que fornecem ao Pentágono certificassem que não usam o Claude internamente. Dada a abrangência comercial da Anthropic — a empresa afirmou que oito das 10 maiores empresas dos EUA usam o Claude — tal requisito poderia forçar auditorias internas generalizadas, substituição rápida de ferramentas e custos elevados de conformidade em todo o setor corporativo.

Um contrato relativamente pequeno, mas um teste político e estratégico importante

O contrato do Pentágono ameaçado tem valor de até US$200 milhões. Em relação à receita anual reportada de US$14 bilhões da Anthropic, esse valor não é existencial.

No entanto, fontes familiarizadas com o assunto dizem que a disputa não é fundamentalmente sobre dinheiro. Trata-se de autoridade: se o exército aceitará salvaguardas de IA estabelecidas por laboratórios privados, ou se esses laboratórios serão obrigados a aceitar a interpretação do Departamento de Defesa sobre uso legal.

O Pentágono pode ter dificuldades em substituir o Claude, apesar de alegações de que rivais estão “apenas atrás”

Uma ruptura repentina também pode ser operacionalmente inconveniente. Um alto funcionário da administração disse à Axios que modelos concorrentes “estão apenas atrás” em aplicações especializadas do governo.

** Também Leia** | Musk lança ataque severo à Anthropic enquanto o criador do Claude levanta US$30 bilhões

Essa lacuna pode dificultar qualquer tentativa de substituir rapidamente o Claude, especialmente em ambientes classificados, onde os obstáculos técnicos e burocráticos para novos sistemas são altos.

O sinal para o Vale do Silício: o Pentágono pretende ditar condições

A abordagem dura contra a Anthropic parece destinada a moldar negociações com outros desenvolvedores de IA.

Funcionários do Pentágono estão em negociações paralelas com a OpenAI, Google e xAI, todas as quais concordaram em remover salvaguardas para uso em sistemas militares não classificados. Mas nenhuma delas ainda atingiu o nível de integração do Claude em redes classificadas.

Um alto funcionário da administração afirmou que o Pentágono espera que as outras empresas aceitem o padrão de “todo uso legal”. No entanto, uma fonte familiarizada com essas discussões disse que muitas questões ainda estão por ser decididas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)