A startup de IA americana Anthropic apresentou hoje uma ação judicial contra o Departamento de Defesa dos EUA (Pentágono) e várias agências federais, protestando contra a inclusão do governo na lista de “risco na cadeia de suprimentos”. A Anthropic alega que essa medida carece de justificativa razoável, podendo resultar na perda de bilhões de dólares em receita, além de afetar sua capacidade de financiamento e a avaliação para uma futura oferta pública inicial (IPO). Este caso também evidencia o crescente conflito entre a aplicação militar de tecnologias de IA e as questões éticas empresariais.
Chama-se a atenção: o rompimento da parceria militar entre Anthropic e o Pentágono
Conforme reportado anteriormente, a origem do incidente foi o rompimento das negociações de cooperação entre Anthropic e o Pentágono, que desejava obter direitos sobre o uso de modelos de IA para “todos os usos legais” em projetos militares, enquanto a Anthropic insistia em manter restrições de uso técnico e princípios éticos básicos.
O CEO da empresa, Dario Amodei, afirmou que a companhia estabeleceu duas linhas vermelhas intransponíveis: a proibição de usar IA em armas autônomas letais e a proibição de uso para vigilância em massa no país. Como não chegaram a um consenso, o governo dos EUA colocou a Anthropic na lista negra de empresas de risco na cadeia de suprimentos, levando ao fracasso total das negociações.
(Quando IA se torna uma arma de nível nuclear: Ben Thompson discute o conflito entre Anthropic e o Pentágono)
Impacto da lista negra: bilhões de dólares em contratos perdidos e pressão na captação de recursos
Segundo a Bloomberg, na ação judicial, a Anthropic afirma que a etiqueta de risco na cadeia de suprimentos costuma ser aplicada a empresas como China ou Rússia, consideradas ameaças à segurança nacional. Isso significa que parceiros comerciais precisam evitar o uso da tecnologia da Anthropic sob pressão do governo, o que pode levar à perda de muitos clientes e oportunidades de negócios relacionados ao governo.
O CFO da Anthropic, Krishna Rao, destacou que, se os clientes corporativos temerem que a parceria com a Anthropic prejudique seus negócios com o governo, a empresa pode perder bilhões de dólares em receita anualmente. Além disso, isso pode enfraquecer a confiança dos investidores, dificultando futuras captações e afetando a avaliação de IPO da companhia.
(Anthropic inicia plano de venda de ações por US$ 6 bilhões, com avaliação de US$ 350 bilhões abre janela para liquidez)
Conflitos na indústria de IA: o embate entre ética e necessidades militares
O incidente também revela o difícil equilíbrio entre ética e uso militar na indústria de IA. Mais de 30 engenheiros e acadêmicos de empresas de tecnologia e instituições de pesquisa, incluindo Jeff Dean, chefe de ciência da Google DeepMind, assinaram declarações apoiando a posição da Anthropic.
Eles alertaram: “Se essa punição às principais empresas de IA dos EUA continuar, certamente enfraquecerá a competitividade industrial e científica dos EUA em IA e outros setores.”
Por outro lado, a OpenAI substituiu a Anthropic ao firmar parceria com o Pentágono, permitindo que seus modelos participem de missões militares sensíveis. No entanto, o aumento no número de instalações desinstaladas parece refletir a preocupação dos usuários com possíveis monitoramentos de diálogo após a entrada do governo.
(Triplicou o número de instalações desinstaladas do ChatGPT, OpenAI e parceria com o Pentágono geram preocupações de segurança e monitoramento)
Escalada judicial: confronto direto entre empresas de tecnologia e o poder do governo
À medida que o processo avança na justiça, a disputa evolui de uma questão de parceria comercial para um confronto legal entre empresas de tecnologia e o governo. A porta-voz da Casa Branca, Liz Huston, afirmou que o governo não permitirá que o setor militar seja limitado por cláusulas éticas com conotação ideológica impostas por empresas de tecnologia, reforçando que a política de defesa priorizará a segurança nacional.
VraserX, educador em IA, comentou que o caso pode prejudicar seriamente as perspectivas comerciais da Anthropic, levando a pressões regulatórias, perda de clientes, retaliações políticas ou pânico entre investidores. Contudo, também há esperança de que o processo possa estabelecer novas fronteiras na definição de responsabilidades e limites na cooperação militar com IA.
Este artigo, intitulado “Anthropic processa Pentágono: blacklist pode causar perdas de bilhões de dólares e prejudicar captação de recursos”, foi originalmente publicado pelo ABMedia, do site Chain News.