Casa Branca Acusa a China de 'Roubo em Escala Industrial' de Modelos de IA Americanos

Resumidamente

  • A Casa Branca afirma que entidades estrangeiras, principalmente na China, estão a conduzir campanhas de “escala industrial” para copiar modelos de IA dos EUA.
  • Os responsáveis dizem que os atacantes usam contas proxy e jailbreaks para extrair capacidades do modelo e dados proprietários.
  • O memorando apela às agências federais e à indústria privada para desenvolver defesas e responsabilizar os atores estrangeiros.

A Casa Branca alertou na quinta-feira que “entidades estrangeiras” alegadamente estão a realizar campanhas de “escala industrial” para copiar as capacidades de modelos de inteligência artificial americanos, usando táticas incluindo jailbreaks e redes de contas falsas para extrair informações proprietárias e replicar o seu desempenho. Num memorando intitulado “Destilação Adversária de Modelos de IA Americanos”, o Assessor do Presidente para Ciência e Tecnologia e Diretor do Gabinete de Ciência e Tecnologia Michael Kratsios afirmou que o governo dos EUA possui informações indicando esforços coordenados para destilar sistemas de IA de fronteira dos EUA. “Os EUA têm evidências de que entidades estrangeiras, principalmente na China, estão a conduzir campanhas de destilação em escala industrial para roubar IA americana,” escreveu Kratsios na X. “Tomaremos medidas para proteger a inovação americana.”

De acordo com a administração do Presidente Donald Trump, as campanhas usam “dez milhares de contas proxy” para evitar detecção e explorar técnicas de jailbreak para extrair capacidades de forma sistemática, num que é conhecido como ataque de destilação.

Os EUA têm evidências de que entidades estrangeiras, principalmente na China, estão a conduzir campanhas de destilação em escala industrial para roubar IA americana. Tomaremos medidas para proteger a inovação americana.

Essas entidades estrangeiras estão a usar dezenas de milhares de proxies e jailbreaks… pic.twitter.com/kSp1FReI7J

— Diretor Michael Kratsios (@mkratsios47) 23 de abril de 2026

Um ataque de destilação é um método de treinar um modelo de IA menor para aprender com as saídas de um maior. A questão tem-se tornado uma preocupação crescente entre as empresas de IA dos EUA. Em fevereiro, a Anthropic acusou laboratórios chineses de IA, DeepSeek, Moonshot e MiniMax, de extrair milhões de respostas do Claude — usando aproximadamente 24.000 contas fraudulentas — para treinar sistemas concorrentes. Modelos desenvolvidos através de campanhas de destilação não autorizadas podem não corresponder ao desempenho completo dos originais. Ainda assim, podem parecer comparáveis em certos benchmarks a uma fração do custo.

A administração alertou que ataques de destilação também podem remover salvaguardas de segurança e outros controles destinados a manter os sistemas de IA “ ideologicamente neutros e à procura da verdade.”  A administração Trump afirmou que as agências federais irão colaborar com empresas de IA dos EUA para fortalecer as proteções em torno de modelos de fronteira, coordenar com a indústria privada para desenvolver defesas contra campanhas de destilação em grande escala, e explorar formas de responsabilizar os atores estrangeiros. Embora o memorando reconheça que a destilação legal pode ajudar a criar modelos menores, mais eficientes, de código aberto e de peso aberto, afirmou que esforços não autorizados de copiar sistemas de IA americanos ultrapassam os limites. “Não há nada de inovador em extrair e copiar sistematicamente as inovações da indústria americana,” disse o memorando. O Gabinete de Ciência e Tecnologia não respondeu imediatamente a um pedido de comentário do Decrypt.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar