Exposição do debate sobre o mecanismo de pré-aprovação de IA na Casa Branca; comentários de Hassett desmentidos oficialmente no dia seguinte

白宮AI預審機制討論

O diretor da Comissão Nacional de Economia da Casa Branca (NEC), Kevin Hassett, disse em 7 de maio, em entrevista ao Fox Business, que o governo Trump está avaliando ordenar, por meio de uma ordem executiva, que modelos de IA passem por uma revisão de segurança do governo antes de serem disponibilizados publicamente, e comparou o processo ao da FDA para a aprovação prévia de medicamentos para lançamento no mercado. Mas, segundo o Politico em 8 de maio, autoridades sêniores da Casa Branca afirmaram em seguida que a declaração foi “recortada fora de contexto”.

Linha do tempo do caso: contradições da política da Casa Branca vêm à tona em reportagem do “New York Times”

Em 4 de maio de 2026, o “New York Times” reportou que a Casa Branca estava discutindo criar um mecanismo de revisão antes da publicação de modelos de IA, na época descrito como “em consideração”. Em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, declarou publicamente: “Estamos analisando se podemos, por meio de uma ordem executiva, exigir que a IA que, no futuro, possa apresentar vulnerabilidades seja colocada em uso somente depois de provar que é segura — como os remédios da FDA”.

Na madrugada de 7 de maio de 2026, a chefe de gabinete Susie Wiles publicou no X que o governo “não é responsável por escolher vencedores e perdedores” e afirmou que implantações de segurança para tecnologias fortes deveriam ser impulsionadas por “inovadores excepcionais dos EUA, e não por agências burocráticas”. Conforme o histórico de posts na conta oficial, a publicação acima foi o 4º conteúdo divulgado desde que Wiles criou sua conta.

O Politico cita três pessoas informadas, sob condição de anonimato, dizendo que a Casa Branca discute fazer com que agências de inteligência realizem avaliações prévias antes da disponibilização pública de modelos de IA. Um oficial do governo dos EUA afirmou na reportagem que um dos objetivos disso é “garantir que o setor de inteligência estude e use essas ferramentas antes que adversários como Rússia e China entendam as novas capacidades”.

Agências envolvidas e marco de políticas

CAISI amplia acordo voluntário de avaliações de segurança

O Centro de Padrões e Inovação de IA (CAISI), ligado ao Departamento de Comércio, anunciou nesta semana que assinou acordos de avaliação de segurança de IA com Google DeepMind, Microsoft e xAI, com a expansão do escopo em relação ao que já havia sido incluído anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias da CAISI está em vigor desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

Em 8 de maio de 2026, em um evento de IA em Washington, o subsecretário de Defesa Emil Michael apoiou publicamente a pré-avaliação do governo antes da disponibilização de modelos de IA e citou o sistema Mythos da Anthropic como exemplo, dizendo que modelos “mais cedo ou mais tarde vão aparecer” e que o governo precisa criar mecanismos de resposta.

Contexto de políticas do governo Trump e da Anthropic

De acordo com o Politico, o secretário de Defesa Pete Hegseth, em março de 2026, incluiu a Anthropic em uma lista de riscos com base em risco da cadeia de suprimentos e proibiu que seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, o Trump teria solicitado separadamente que agências federais interrompessem o uso de produtos da Anthropic dentro de seis meses. Ao mesmo tempo, no mês passado, a Anthropic revelou que seu sistema de IA Mythos tem capacidade robusta de descoberta de vulnerabilidades de software, além do patamar de segurança exigido para lançamento público, e várias agências federais posteriormente apresentaram pedidos de acesso. Em 8 de maio de 2026, a OpenAI anunciou que fará uma prévia limitada da GPT-5.5-Cyber, uma nova ferramenta capaz de detectar e corrigir vulnerabilidades de rede.

Posições da indústria contra mecanismo de revisão compulsória

Daniel Castro, presidente do Information Technology and Innovation Foundation (ITIF), disse na reportagem do Politico: “Se você consegue negar a aprovação antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente recebe aprovação enquanto outro não, a diferença de semanas ou meses na entrada no mercado terá um impacto enorme.” Os financiadores do ITIF incluem Anthropic, Microsoft e Meta.

Um alto funcionário da Casa Branca afirmou na mesma reportagem: “Há, de fato, um ou dois que estão muito entusiasmados com a supervisão do governo, mas eles são minoria.” O funcionário pediu anonimato alegando necessidade de descrever discussões sensíveis de políticas.

Perguntas frequentes

Quando e onde Kevin Hassett fez declarações sobre pré-avaliação de IA?

Conforme reportado pelo Politico, em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, afirmou publicamente que o governo está avaliando uma ordem executiva para exigir que modelos de IA passem por uma revisão de segurança do governo antes de serem lançados, comparando o processo ao fluxo de aprovação da FDA para medicamentos.

Qual é a base para a Casa Branca negar as declarações de Hassett?

Segundo a reportagem do Politico em 8 de maio de 2026, autoridades sêniores da Casa Branca disseram que a fala de Hassett foi “um pouco recortada fora de contexto”, e que a direção de políticas da Casa Branca é firmar parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete Susie Wiles também publicou novamente para reiterar que o governo não interfere na escolha do mercado.

Quais novos acordos de avaliação de segurança de IA a CAISI acrescentou nesta semana?

De acordo com o comunicado da CAISI nesta semana, os acordos adicionais abrangem Google DeepMind, Microsoft e xAI, além dos que já estavam cobertos anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias está em vigor desde 2024.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

SNS lança protocolo MCP que permite que agentes de IA gerenciem domínios .sol em 7 de maio

Conforme anúncio oficial da SNS em 7 de maio de 2026, o SNS MCP (Model Context Protocol) entrou no ar, permitindo que agentes de IA descubram, registrem e gerenciem domínios .sol na Solana por meio de interações conversacionais. Agora, os usuários podem conectar plataformas de IA compatíveis como Claude AI e OpenClaw para

GateNews21m atrás

Coreia do Sul lança $8M Fundo de Cibersegurança de IA para 50 empresas

O Ministério da Ciência e das TIC da Coreia do Sul e a Agência de Segurança da Internet da Coreia vão investir 12 bilhões de won (US$ 8,31 milhões) no Projeto de Apoio a Novas Tecnologias de Segurança da Informação de 2026, segundo o Chosun Daily. O programa tem como objetivo apoiar 50 empresas que trabalham em 18 tarefas de segurança em IA

CryptoFrontier21m atrás

OpenAI expande o piloto de anúncios do ChatGPT para a Coreia do Sul, Reino Unido, Japão, Brasil e México em 7 de maio

De acordo com o The Korea Times, a OpenAI anunciou em 7 de maio que vai expandir seu piloto de anúncios do ChatGPT para a Coreia do Sul, o Reino Unido, o Japão, o Brasil e o México, a fim de monetizar usuários gratuitos além de seus mercados iniciais (EUA, Canadá, Austrália e Nova Zelândia). O teste vai mirar usuários adultos nos planos Free e Go,

GateNews21m atrás

EUA e China devem lançar o Diálogo Oficial de Segurança da IA, liderado por autoridades do Tesouro

De acordo com relatos, os Estados Unidos e a China estão se preparando para lançar um diálogo oficial sobre segurança de IA com o objetivo de estabelecer mecanismos de gestão de crises para sua competição tecnológica. A delegação dos EUA será liderada pelo secretário do Tesouro, Scott Bessent, enquanto a China será representada pelo vice

GateNews51m atrás

A RLWRLD lança o modelo de IA RLDX-1 para mãos robóticas industriais

RLWRLD, uma startup de IA de robótica apoiada pela LG Electronics, revelou o RLDX-1, um modelo de base projetado para mãos robóticas de cinco dedos em aplicações industriais, segundo a RLWRLD. A empresa disponibilizou os pesos, o código e os documentos técnicos do modelo no GitHub e no Hugging Face. Model

CryptoFrontier1h atrás

DeepMind AlphaEvolve desempenho interdomínios: multiplicação de matrizes 4×4 atualiza recorde de Strassen 1969, treinamento do Gemini acelera em 1%

O Google DeepMind lançou em 7 de maio (horário dos EUA) o relatório de conquistas do AlphaEvolve. O blog oficial da DeepMind reuniu os avanços concretos do AlphaEvolve desde o seu lançamento: encontrou um método de multiplicação de matrizes complexas 4×4 melhor do que o algoritmo de Strassen de 1969 (48 multiplicações escalares puras), colaborou com matemáticos como Terence Tao para resolver vários difíceis problemas matemáticos de Erdős (Erdős), economizou 0,7% dos recursos globais de computação para os data centers do Google, aumentou em 23% a velocidade dos kernels-chave treinados com o Gemini e reduziu em 1% o tempo total de treinamento do Gemini. Arquitetura: exploração de largura do Gemini Flash + Gemini

ChainNewsAbmedia1h atrás
Comentário
0/400
Sem comentários