AI Nova empresa Anthropic e o conflito com o governo dos EUA continuam a escalar. Segundo a Reuters, o Departamento de Defesa dos Estados Unidos (Pentágono) recentemente classificou a Anthropic como uma entidade de “risco na cadeia de abastecimento”, restringindo o uso de sua tecnologia de IA em contratos militares. A Anthropic afirmou que essa classificação carece de base legal e já entrou com uma ação na justiça federal para contestar a decisão.
(Antecedentes: Anthropic e Pentágono reativam negociações de IA: tentam manter colaboração com Claude, mas mantêm limites éticos)
(Informação adicional: CEO da Anthropic acusa: contratos da OpenAI com o Pentágono são mentiras, Altman finge ser embaixador da paz)
Índice
Toggle
A disputa entre a empresa de inteligência artificial Anthropic e o governo dos EUA entrou oficialmente na fase judicial. O Departamento de Defesa anunciou recentemente que classificou a Anthropic como uma entidade de “risco na cadeia de abastecimento”, limitando o uso de seus modelos de IA em contratos militares. A Anthropic rebateu veementemente, dizendo que a medida é “sem precedentes e sem base legal”, e entrou com uma ação na justiça federal para anular a classificação e impedir a implementação das restrições pelo governo.
De acordo com a Reuters, o Departamento de Defesa dos EUA notificou oficialmente a Anthropic de que a empresa e sua tecnologia de IA foram consideradas um “risco na cadeia de abastecimento”, com efeito imediato. Essa etiqueta geralmente é usada para restringir fornecedores considerados uma ameaça à segurança nacional, podendo impedir que seus produtos sejam utilizados em aquisições militares ou contratos de defesa.
Na prática, isso significa que contratantes e fornecedores que colaboram com o governo americano em projetos de defesa podem não usar os modelos de IA da Anthropic, como seu famoso sistema Claude. Especialistas apontam que esse é um caso raro, pois esse tipo de classificação costuma ser aplicada a empresas estrangeiras ou fornecedores considerados ameaças à segurança, e não a uma empresa de IA americana.
O núcleo da controvérsia é a restrição ao uso da tecnologia de IA da Anthropic. Segundo várias reportagens, a empresa rejeita categoricamente que seus modelos sejam utilizados para duas categorias de alto risco:
Por outro lado, o Departamento de Defesa deseja que os modelos de IA possam ser utilizados “para todos os fins legais”. As negociações não chegaram a um consenso sobre limites de segurança, levando à ruptura e à classificação de risco na cadeia de abastecimento.
Dario Amodei, CEO da Anthropic, afirmou que a decisão do Departamento de Defesa “não tem respaldo legal” e alertou que a medida pode criar um perigoso precedente de punição às empresas pelo governo. A empresa já entrou com uma ação na justiça federal, pedindo a anulação da classificação e a suspensão das restrições.
A Anthropic destacou que a etiqueta de “risco na cadeia de abastecimento” costuma ser usada contra empresas estrangeiras, e aplicá-la a uma companhia de IA americana pode ter impactos profundos na indústria tecnológica e na colaboração com o governo.
Especialistas analisam que esse caso reflete os novos desafios enfrentados pela indústria de IA: quando grandes modelos começam a ser utilizados em áreas militares e de segurança nacional, até que ponto as empresas podem limitar o uso governamental de suas tecnologias?
Alguns especialistas acreditam que, se o governo puder impor sanções econômicas por restrições de segurança, isso pode enfraquecer a autonomia das empresas de tecnologia na decisão sobre segurança e ética de IA. Por outro lado, o setor militar vê a tecnologia de IA como estratégica para a segurança do país, defendendo menos restrições.
O desfecho dessa batalha judicial pode não apenas determinar se a Anthropic poderá retomar a colaboração com o governo americano, mas também estabelecer um importante precedente para futuras parcerias entre empresas de IA e governos.