A OpenAI, a Anthropic e a Google lançam um mecanismo conjunto para detetar comportamentos de destilação de IA

AI蒸餾行為

De acordo com um relatório da Bloomberg a 16 de Abril, a OpenAI, a Anthropic PBC e a Google já iniciaram uma colaboração através da organização sem fins lucrativos do sector Frontier Model Forum, partilhando informações para detectar e impedir a prática de “model extraction” por meio de modelos de IA adversaria que violam os termos de serviço. A OpenAI confirmou à Bloomberg que já participou no trabalho de partilha de informações sobre model extraction adversaria.

Quadro de cooperação: mecanismo de partilha de informações do Frontier Model Forum

O Frontier Model Forum foi criado em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft. De acordo com a Bloomberg, as três empresas trocam actualmente informações através desta organização, com o objectivo de identificar pedidos massivos de dados adversaria, acompanhar tentativas de model extraction que violem os termos de serviço e coordenar a prevenção de actividades relacionadas. A Google já publicou um artigo no blog indicando que detectou um aumento das tentativas de extracção de modelos.

De acordo com a Bloomberg, este tipo de modelo de partilha de informações está em linha com práticas existentes na indústria da segurança informática, que há muito utiliza a troca interempresarial de dados de ataques e das estratégias dos adversários para reforçar a defesa.

Memorando do Congresso da OpenAI e registo de alegações relacionadas

De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI à House Select Committee on China dos Estados Unidos, a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “aproveitar-se” de “tecnologia desenvolvida pela OpenAI e outros laboratórios de ponta dos EUA”, e afirma que esta continua a utilizar técnicas de model extraction de dados para extrair resultados de modelos dos EUA a fim de desenvolver uma nova versão de um chatbot, com métodos cada vez mais complexos.

A Anthropic publicou uma declaração em fevereiro de 2026, na qual identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — e acusou-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria. A Anthropic tinha já, em 2025, proibido empresas chinesas de utilizar o Claude. A Bloomberg também tinha noticiado anteriormente que, após a DeepSeek ter lançado o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI iniciaram investigações sobre se houve extracção ilegal de dados de modelos dos EUA.

Posicionamento da administração Trump e limitações de conformidade antitrust

De acordo com documentos de políticas públicas, responsáveis do governo Trump indicaram que estão dispostos a promover a partilha de informações entre empresas de IA para fazer face às ameaças de model extraction adversaria. O plano de acção em matéria de Inteligência Artificial anunciado pelo Presidente Trump apela explicitamente à criação de centros de partilha de informações e de análise, sendo um dos objectivos precisamente responder a estas acções.

De acordo com a Bloomberg, o âmbito da partilha de informações sobre model extraction por via tecnológica entre as três empresas continua a ser limitado, uma vez que elas não têm certeza sobre quais informações poderão ser partilhadas em conformidade com as actuais orientações antitrust; as três empresas afirmaram que pretendem alargar o âmbito da cooperação após o governo dos EUA clarificar os quadros orientadores relevantes.

Perguntas frequentes

A OpenAI, a Anthropic e a Google cooperam através de que organização?

De acordo com a Bloomberg, as três empresas fazem partilha de informações através do Frontier Model Forum, uma organização criada em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft, sendo uma organização sem fins lucrativos do sector.

Que conteúdo apresentou a OpenAI ao Congresso dos EUA sobre o problema do AI model extraction?

De acordo com informação divulgada pela OpenAI, a OpenAI apresentou um memorando (fevereiro de 2026) à House Select Committee on China, nos EUA, acusando a DeepSeek de continuar a extrair resultados de modelos dos EUA através de técnicas de model extraction de dados e de usar isso para desenvolver uma nova versão de um chatbot.

Que acções já publicadas tomou a Anthropic sobre o problema de model extraction dos laboratórios de IA chineses?

De acordo com a declaração pública da Anthropic, a Anthropic proibiu em 2025 empresas chinesas de utilizar o modelo Claude e, em fevereiro de 2026, identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — acusando-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Avaliação AISI: as capacidades de ataque à rede do GPT-5,5 estão ao mesmo nível das do Anthropic Mythos

AISI divulgou em maio uma avaliação das capacidades de ciberataque do GPT-5.5: dificuldade Expert 71,4%, Mythos Preview 68,6%; a diferença está dentro da margem de erro, pelo que fica empatado. O GPT-5.5 tornou-se, depois do Mythos, o segundo sistema capaz de concluir automaticamente as 32 etapas de uma invasão empresarial de “The Last Ones”. Foi também detetado um universal jailbreak, que pode ser desenvolvido em cerca de 6 horas e contornar a filtragem de consultas maliciosas. No futuro, será acompanhado o calendário da próxima ronda de avaliações e a atualização da OpenAI a este respeito.

ChainNewsAbmedia1h atrás

Pentágono assina contratos de implantação de rede militar encriptada e confidencial com 7 empresas líderes de IA: Anthropic continua excluída

O Departamento de Defesa dos EUA anunciou em maio que celebrou contratos militares de redes confidenciais com sete empresas, incluindo a SpaceX, a OpenAI, a Google, a NVIDIA, a Reflection e a Microsoft e a Amazon Web Services, tendo ainda juntado a Oracle para passar a ser a 8.ª. O contrato permite executar modelos nos níveis mais altos de confidencialidade Impact Level 6/7, com foco em três grandes aplicações: integração de dados, decisões de operações e perceção da situação no campo de batalha, sublinhando a redução de riscos e a evitação do bloqueio a fornecedores. A Anthropic foi incluída numa lista negra por recusar barreiras de segurança para o Exército e não obteve assinatura. A AMD não foi incluída diretamente, sendo as GPU fornecidas por empresas como a NVIDIA. Acompanhar, de seguida, se a Anthropic ceder e qual será o papel dos novos selecionados, como a Reflection.

ChainNewsAbmedia1h atrás

A Cerebras mira o $4B IPO, avaliada em ~40 mil milhões de dólares

O fabricante de chips de IA Cerebras Systems, sediado em Sunnyvale, Califórnia, está a tentar angariar até 4 mil milhões de dólares num IPO que poderia valorizar a empresa em aproximadamente 40 mil milhões de dólares, segundo a Bloomberg. A divulgação formal poderá começar logo a partir de 4 de maio, com bancos a receberem mais de 10 mil milhões de dólares em indicações de

CryptoFrontier1h atrás

Empresas chinesas de IA consideram desmontar estruturas “red-chip” na sequência da suspensão da aquisição de Manus pela Meta

Segundo Beating, a Comissão Nacional de Desenvolvimento e Reforma da China suspendeu a aquisição de 2 mil milhões de dólares da Meta da empresa de agentes de IA Manus, levando a Comissão Reguladora de Valores Mobiliários da China a apertar a aprovação para listagens de IPO em Hong Kong por empresas de red-chip (empresas chinesas que detêm ativos domésticos) th

GateNews3h atrás

Musk Conclui Depoimento de Três Dias no Processo da OpenAI, Cita uma Alegação de Danos de 130-150 mil milhões de dólares

De acordo com vários relatos da comunicação social, Elon Musk concluiu três dias de depoimento no seu processo contra a OpenAI, nos dias 28 a 30 de abril, com um depoimento acumulado superior a 7 horas. Musk, que co-fundou a OpenAI em 2015 com um investimento inicial de 38 milhões de dólares, alegou que a empresa abandonou a sua missão sem fins lucrativos m

GateNews3h atrás

A Meta adquire a startup de IA robótica Assured Robot Intelligence em 1 de maio

De acordo com a Bloomberg, a Meta adquiriu a Assured Robot Intelligence, uma startup de robótica e IA, com escritórios em San Diego e em Nova Iorque, a 1 de maio. A equipa adquirida, incluindo os cofundadores Lerrel Pinto e Xiaolong Wang, vai integrar a Meta Superintelligence Labs e trabalhar com o Meta Robotics Studio. Financeira

GateNews3h atrás
Comentar
0/400
Nenhum comentário