Anthropic CEO Dario Amodei foi entrevistado pelo editor-chefe do The Economist, Zanny Minton Beddoes, explicando por que a Anthropic se opõe a algumas cláusulas nos contratos com o Pentágono. Ele acredita que a posição da Anthropic não se baseia apenas em valores democráticos, mas também na preocupação se os modelos de IA existentes são suficientemente confiáveis para aplicações militares e quem deve controlá-los no final. Amodei também revelou o desejo de manter um diálogo com o governo para discutir cláusulas mais claras sobre IA.
Amodei: Claude ainda não é um modelo totalmente automatizado para uso militar
Após a proibição do governo Trump de usar as ferramentas de modelos fornecidas pela Anthropic por parte de agências federais, devido à sua posição contra o uso de Claude em vigilância em massa ou armas autônomas, Claude foi rotulado como fornecedor de riscos de IA nos EUA. Amodei afirmou que o principal modelo da Anthropic, Claude, ainda não está pronto para aplicações militares totalmente automatizadas. Como fornecedor privado de IA, é difícil explicar ao governo como usar o modelo de forma segura, mas ele considera isso uma medida necessária de segurança.
Amodei esclareceu que a Anthropic assinou um contrato de escopo limitado com o Pentágono, que até agora não apresentou problemas. No entanto, ele expressou preocupação com o uso futuro e a expansão do escopo. A automação militar total poderia criar cenários onde a IA controla milhões de drones sem seguir normas militares tradicionais, e sem limites regulatórios, esse controle se tornaria incontrolável.
Como a Anthropic justifica a limitação do uso de armas?
Na entrevista, Amodei explicou que a restrição do uso de Claude para comandar drones em armas totalmente autônomas se baseia em dois pontos: a confiabilidade insuficiente do Claude e a ausência de um quadro de supervisão humana (vídeo 0:00-0:18, 5:48-5:58).
Confiabilidade do Claude: Amodei acredita que o modelo Claude ainda não suporta aplicações militares totalmente automatizadas, comparando-o a uma companhia aérea que deveria divulgar que certos métodos de pilotagem são inseguros (vídeo 0:05-0:49).
Falta de supervisão humana: Ele teme que a ausência de regulamentação humana para gerenciar um exército de drones possa permitir que uma única pessoa controle milhões de armas, sem a responsabilidade tradicional de um comando militar (vídeo 5:48-6:55).
Como lidar com divergências na inteligência artificial militar?
Amodei, na conversa com o The Economist, expressou esperança de que a Anthropic e o governo possam trabalhar juntos de forma mais detalhada para resolver divergências na aplicação da IA. Ele enfatizou que fornecedores de IA e o governo devem discutir a confiabilidade dos modelos existentes e as normas de governança para mitigar riscos potenciais. Amodei acredita que os fornecedores têm a responsabilidade de esclarecer se seus modelos são maduros para aplicações de alto risco.
Ele propôs inicialmente assinar contratos limitados, cobrindo casos de uso consensuais, para que ambos possam estabelecer normas de operação antes de expandir para tarefas mais controversas. Ainda assim, é necessário um debate para encontrar um equilíbrio que evite concentrar poder demais nas empresas privadas ou tornar o controle governamental absoluto e inquestionável.
O nome Anthropic vem de “antropologia”, refletindo a missão dos fundadores de criar uma empresa de IA centrada no ser humano. Essa convicção fez de Amodei um dos poucos CEOs dispostos a desafiar abertamente o governo dos EUA e denunciar a China por roubar tecnologia Claude. Como a Anthropic consegue equilibrar seus princípios com a segurança nacional será um marco importante no desenvolvimento da IA militarizada. Como resolver esse impasse sobre soberania tecnológica e limites éticos? O mundo está atento.
Este artigo, “CEO da Anthropic: Claude não é adequado para uso militar, busca cláusulas mais claras”, foi originalmente publicado na ABMedia.