A discussão sobre um mecanismo de pré-aprovação de IA da Casa Branca é divulgada, e as declarações de Hassett são negadas oficialmente no dia seguinte

白宮AI預審機制討論

O director do Conselho Económico Nacional (NEC) da Casa Branca, Kevin Hassett, afirmou numa entrevista à Fox Business a 7 de maio que o Governo de Trump está a estudar a emissão de uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança do Governo antes de serem disponibilizados publicamente, comparando o processo ao modelo da FDA para a aprovação prévia à comercialização de medicamentos. Contudo, segundo a Politico a 8 de maio, altos responsáveis da Casa Branca disseram posteriormente que esses comentários foram «tirados do contexto».

Evolução do caso: O NYT chega à exposição pública de contradições na política da Casa Branca

A 4 de maio de 2026, o The New York Times noticiou que a Casa Branca estava a discutir a criação de um mecanismo de revisão prévia à publicação de modelos de IA, então descrito como «em consideração». A 7 de maio de 2026, Kevin Hassett, em entrevista à Fox Business, declarou publicamente: «Estamos a estudar se podemos, por meio de uma ordem executiva, exigir que a IA que poderá vir a apresentar vulnerabilidades só seja colocada em uso depois de demonstrar a sua segurança — como os fármacos da FDA».

A 7 de maio de 2026, já tarde da noite, Susie Wiles, chefe de gabinete da Casa Branca, publicou no X que o Governo «não tem a responsabilidade de escolher os vencedores e os perdedores», acrescentando que a implementação segura de tecnologias fortes deveria ser impulsionada «por inovadores notáveis dos EUA, e não por organismos burocráticos». De acordo com o registo oficial da sua conta, a publicação acima mencionada foi o quarto conteúdo divulgado desde que Wiles criou a conta.

Citados pela Politico três informadores anónimos, a Casa Branca está a discutir fazer com que as agências de informação façam uma avaliação preliminar antes da publicação pública dos modelos de IA. Um responsável do Governo dos EUA disse na notícia que, entre os objetivos, está «garantir que o sector de informações estude e use essas ferramentas antes de os adversários como a Rússia e a China compreenderem as novas capacidades».

Entidades envolvidas e enquadramento da política

CAISI alarga acordos voluntários de avaliação de segurança

O Centro de Normas e Inovação de IA (CAISI), que integra o Departamento do Comércio, anunciou esta semana que celebrou acordos de avaliação de segurança de IA com a Google DeepMind, a Microsoft e a xAI, alargando o âmbito aos anteriores já incluídos, nomeadamente a OpenAI e a Anthropic. O quadro de avaliação voluntária da CAISI é aplicado desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

O sub-secreário de Defesa Emil Michael, a 8 de maio de 2026, numa conferência de IA em Washington, manifestou publicamente apoio à pré-avaliação governamental antes da publicação de modelos de IA e, no seu discurso, citou o sistema Mythos da Anthropic como caso de referência, afirmando que tais modelos «mais cedo ou mais tarde vão surgir» e que o Governo precisa de criar mecanismos de resposta.

Contexto de política do Governo de Trump e da Anthropic

Segundo a Politico, o secretário da Defesa Pete Hegseth, em março de 2026, colocou a Anthropic numa lista de riscos com base em riscos para a cadeia de abastecimento e proibiu que os seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, Trump exigiu separadamente que as agências federais deixassem de usar produtos da Anthropic no prazo de seis meses. Entretanto, no mês passado, a Anthropic revelou que o seu sistema de IA Mythos tem capacidades fortes de exploração de vulnerabilidades de software, para além do limite de segurança da disponibilização pública, e várias agências federais apresentaram pedidos de ligação em seguida. A OpenAI, a 8 de maio de 2026, anunciou que vai disponibilizar uma pré-visualização limitada da GPT-5,5-Cyber, uma nova ferramenta que consegue detetar e corrigir vulnerabilidades de rede.

Posturas do sector contra mecanismos de revisão obrigatória

O presidente do Information Technology and Innovation Foundation (ITIF), Daniel Castro, disse na reportagem da Politico: «Se a pré-aprovação puder ser recusada antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente for aprovado e outro não, a diferença de semanas ou meses no acesso ao mercado terá um impacto enorme.» Os financiadores do ITIF incluem a Anthropic, a Microsoft e a Meta.

Um alto responsável da Casa Branca, na mesma reportagem, afirmou: «Há de facto um ou dois que estão muito entusiasmados com a regulamentação governamental, mas são apenas uma minoria.» O responsável pediu para não ser identificado, alegando necessidade de descrever discussões sensíveis sobre políticas.

Perguntas frequentes

Quando e onde é que Kevin Hassett fez declarações sobre pré-avaliação de IA?

De acordo com a Politico, Kevin Hassett apresentou publicamente o tema numa entrevista à Fox Business a 7 de maio de 2026, indicando que o Governo está a estudar uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança governamental antes de serem divulgados, comparando com o processo de aprovação de fármacos da FDA.

Em que se baseia a negação, pela Casa Branca, das declarações de Hassett?

Segundo a Politico a 8 de maio de 2026, altos responsáveis da Casa Branca disseram que os comentários de Hassett foram «um pouco tirados do contexto» e que a direção da política do Governo é estabelecer parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete, Susie Wiles, voltou a escrever para reforçar que o Governo não intervém na escolha do mercado.

Que acordos adicionais de avaliação de segurança de IA foram incluídos pela CAISI esta semana?

De acordo com o comunicado da CAISI esta semana, os acordos agora adicionados abrangem a Google DeepMind, a Microsoft e a xAI, além dos anteriormente já cobertos: a OpenAI e a Anthropic. O quadro de avaliação voluntária é aplicado desde 2024.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O SNS lança o protocolo MCP, permitindo que agentes de IA gerirem domínios .sol a 7 de maio

De acordo com o anúncio oficial da SNS em 7 de maio de 2026, o SNS MCP (Model Context Protocol) entrou em funcionamento, permitindo que agentes de IA descubram, registem e geram conta de domínios .sol na Solana através de interações conversacionais. Os utilizadores podem agora ligar plataformas de IA compatíveis, como o Claude AI e o OpenClaw, a

GateNews14m atrás

A Coreia do Sul lança um fundo de cibersegurança de $8M I para 50 empresas

O Ministério da Ciência e das TIC da Coreia do Sul e a Agência Coreana de Internet e Segurança vão investir 12 mil milhões de won (US$8,31 milhões) no Projeto de Apoio a Novas Tecnologias em Segurança da Informação de 2026, segundo o Chosun Daily. O programa tem como objetivo apoiar 50 empresas que trabalham em 18 tarefas de segurança em IA

CryptoFrontier14m atrás

A OpenAI alarga o projeto-piloto de anúncios do ChatGPT à Coreia do Sul, Reino Unido, Japão, Brasil e México a 7 de maio

De acordo com o The Korea Times, a OpenAI anunciou a 7 de maio que irá expandir o seu piloto de anúncios do ChatGPT para a Coreia do Sul, o Reino Unido, o Japão, o Brasil e o México, para monetizar utilizadores gratuitos para além dos seus mercados iniciais (EUA, Canadá, Austrália e Nova Zelândia). O teste irá visar utilizadores adultos nos planos Free e Go,

GateNews14m atrás

EUA e China preparam-se para lançar um Diálogo Oficial de Segurança da IA, liderado por responsáveis do Tesouro

De acordo com relatos, os Estados Unidos e a China estão a preparar o lançamento de um diálogo oficial sobre segurança da IA, com o objetivo de estabelecer mecanismos de gestão de crises para a sua competição tecnológica. A delegação dos EUA será liderada pelo secretário do Tesouro Scott Bessent, enquanto a China será representada pelo vice

GateNews44m atrás

A RLWRLD lança o modelo de IA RLDX-1 para mãos robóticas industriais

RLWRLD, uma startup de IA de robótica apoiada pela LG Electronics, revelou o RLDX-1, um modelo de base concebido para mãos robóticas de cinco dedos em aplicações industriais, segundo a RLWRLD. A empresa disponibilizou os pesos, o código e a documentação técnica do modelo no GitHub e na Hugging Face. Modelo

CryptoFrontier1h atrás

DeepMind AlphaEvolve desempenho interdomínios: multiplicação de matrizes 4×4 que renova o recorde de Strassen de 1969, treino do Gemini mais rápido em 1%

O Google DeepMind, a 7 de Maio (hora dos EUA), divulgou um relatório de resultados interdisciplinares do AlphaEvolve. O blogue oficial da DeepMind reuniu os progressos concretos do AlphaEvolve desde a sua apresentação: encontrou um método de multiplicação de matrizes complexas 4×4 melhor do que o algoritmo de Strassen (1969) (48 multiplicações escalares puras), colaborou com matemáticos como Terence Tao para resolver vários problemas matemáticos difíceis de Erdős, poupou 0,7% dos recursos de computação globais para centros de dados da Google, aumentou a velocidade dos kernel-chave usados no treino do Gemini em 23% e reduziu em 1% o tempo total de treino do Gemini. Arquitetura: Gemini Flash exploração de largura + Gemini

ChainNewsAbmedia1h atrás
Comentar
0/400
Nenhum comentário