O tribunal de recurso mantém a etiqueta de “risco na cadeia de abastecimento” da Anthropic, ética da IA vs. segurança nacional

9 de abril, o Tribunal de Apelações Federal do Distrito de Columbia, nos EUA, decidiu manter a marcação do Ministério da Defesa para a Anthropic como “risco para a cadeia de abastecimento”, recusando o seu pedido de suspensão. Esta batalha jurídica, que continua sem desfecho definitivo, em torno das linhas vermelhas éticas da IA e das definições de segurança nacional.
(Antecedentes: o juiz apoiou a Anthropic, proibindo o Ministério da Defesa de sancionar a Claude com uma “etiqueta de risco para a cadeia de abastecimento”)
(Informação de contexto: O que é a Claude? Análise completa — custos, funcionalidades, Claude Code, Cowork — guia mais detalhado da Anthropic para 2026)

Índice do artigo

Toggle

  • Um contrato de 200 milhões de dólares, como acaba em ruptura
  • Dois tribunais, duas respostas
  • O custo e o valor das linhas vermelhas éticas

9 de abril, o Tribunal de Apelações Federal do Distrito de Columbia, nos EUA, rejeitou o pedido de suspensão da execução apresentado pelo gigante da IA Anthropic, decidindo manter a determinação do Ministério da Defesa de a classificar como “risco para a cadeia de abastecimento”.

Os fundamentos do tribunal foram diretos: os interesses de segurança nacional do governo na gestão da cadeia de abastecimento de IA prevalecem sobre as perdas financeiras suportadas pela Anthropic. Esta marcação é normalmente utilizada para empresas de países adversários ou entidades que representam ameaças potenciais; agora recai sobre um unicórnio de IA sediado nos EUA, com um significado simbólico evidente.

Um contrato de 200 milhões de dólares, como acaba em ruptura

O caso tem origem em julho de 2025. A Anthropic e o Pentágono assinaram um contrato de 200 milhões de dólares, para integrar os modelos de IA da sua Claude no sistema Maven inteligente, ajudando a executar tarefas de análise de informações e identificação de objetivos.

Contudo, as negociações entre as partes falharam em setembro de 2025. A Anthropic insistiu em estabelecer duas linhas vermelhas éticas: recusar utilizar a Claude em sistemas de armas totalmente automatizados e recusar utilizá-la em vigilância no território nacional. Estas duas posições entram em conflito fundamental com as expectativas do governo Trump, que, entretanto, ordenou por meio das redes sociais às agências federais que deixassem de utilizar produtos da Anthropic e estabeleceu um período de transição de 6 meses.

Entre o final de 2025 e o início de 2026, o Ministério da Defesa colocou oficialmente a Anthropic na lista de riscos da cadeia de abastecimento. Esta marcação cortou diretamente a elegibilidade da Anthropic para participar em contratos de defesa do governo.

Dois tribunais, duas respostas

Neste momento, esta batalha legal tem resultados contraditórios. Um tribunal federal em São Francisco, no fim de março, tinha aprovado uma injunção preliminar que permitia à Anthropic continuar a colaborar com entidades governamentais não ligadas à defesa; porém, a decisão de 9 de abril do Tribunal de Apelações Federal do Distrito de Columbia reforçou a postura de bloqueio do Ministério da Defesa, recusando qualquer espaço para uma suspensão.

Isto significa que a Anthropic se encontra numa espécie de “brecha legal” embaraçosa: pode colaborar com algumas entidades governamentais, mas é excluída dos contratos de defesa. A Anthropic afirma que este caso constitui retaliação política e viola garantias constitucionais, e diz que continuará a apresentar recursos. A aceleração do processo judicial será a chave para a próxima fase.

O custo e o valor das linhas vermelhas éticas

No entanto, segundo a revista Electronic Engineering Album, embora a Anthropic tenha sofrido um grande impacto comercial, não conseguindo participar em contratos de defesa de grande escala, a sua insistência na posição ética obteve, em contrapartida, uma resposta positiva no mercado de utilizadores em geral, atraindo mais empresas e utilizadores individuais preocupados com a segurança da IA.

O impacto desta decisão não se limita a uma única empresa, a Anthropic. Ela revela uma contradição estrutural mais profunda: quando os enquadramentos éticos dos criadores de IA entram em conflito com a definição de segurança nacional por parte do governo, o equilíbrio do sistema jurídico atual tende, neste momento, para onde? Já existe uma resposta preliminar. A decisão final deste caso terá um significado de referência profundo para como toda a indústria tecnológica irá negociar, com o governo, os limites do uso de IA.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Google lança o Gemini 3.1 Flash TTS com expressão emocional melhorada e capacidades de múltiplos locutores

A Google lançou o Gemini 3.1 Flash TTS, um modelo avançado de texto-para-voz com expressão emocional e controlo melhorados. As funcionalidades incluem etiquetas de áudio em linguagem natural, o Director Mode para saídas mais subtis e capacidade de múltiplos locutores para conversas realistas. Suportando mais de 70 línguas e concebido para a eficiência, o objetivo é melhorar os conteúdos gerados por IA e combater a desinformação. O lançamento reflete a crescente concorrência na tecnologia de voz, especialmente da OpenAI e da Meta.

GateNews16m atrás

Bytedance nega notícia sobre a entrada do investigador da DeepSeek, Guo Daya, com um salário de centenas de milhões de yuan

A Bytedance negou os relatos de que o investigador Guo Daya se tivesse juntado à sua equipa Seed com um salário de 100 milhões de yuan. Guo confirmou o seu cargo como líder de agentes, mas os detalhes do salário não foram divulgados, enquanto as estruturas de remuneração da equipa são uniformes.

GateNews2h atrás

A Sequoia Capital angaria $7 mil milhões para um novo fundo liderado por Alfred Lin e Pat Grady

A Sequoia Capital angariou $7 mil milhões para um novo fundo sob a gestão de Alfred Lin e Pat Grady, com foco em startups de IA como a OpenAI e a Anthropic. Esta é uma mudança de estratégia, permitindo investimentos em empresas concorrentes dentro do mesmo sector.

GateNews3h atrás

A Minyue Technology garante financiamento pré-B+ para sistemas de soldadura com IA

A Minyue Technology garantiu financiamento pré-B+ para melhorar os seus sistemas de soldadura e corte, expandir a infraestrutura de dados e prosseguir o crescimento internacional, na sequência de uma ronda pré-B bem-sucedida. A empresa especializa-se em tecnologia avançada de soldadura e pretende conquistar mais mercados globais.

GateNews3h atrás

Manycore Tech Angaria $156M no IPO de Hong Kong, Mudando o Foco para Serviços de IA e Robótica

A Manycore Tech angariou $156 milhões no seu IPO de Hong Kong, alterando o foco da remodelação doméstica para serviços de IA e robótica com recurso a dados proprietários de design 3D. Apesar de um aumento de 8,6% nas receitas, continua a registar prejuízos, o que reflete o interesse dos investidores em software de design especializado.

GateNews3h atrás

O produto de IA da Nvidia para computação quântica impulsiona uma subida das acções de 50%+ na IonQ e na D-Wave

A nova suite de produtos de IA da Nvidia, Ising, foi lançada a 14 de abril e melhora a correcção de erros quânticos, aumentando a velocidade em 2,5 vezes e a precisão em três vezes. Este anúncio fez disparar de forma significativa as acções de computação quântica, indicando forte interesse do mercado, mesmo num contexto de volatilidade.

GateNews3h atrás
Comentar
0/400
Nenhum comentário