O Context.ai foi invadido, desencadeando uma crise de segurança na Vercel; o CEO publicou um relatório completo sobre o progresso da investigação

Context.ai攻击事件

O CEO da Vercel, Guillermo Rauch, divulgou publicamente no X os progressos da investigação, confirmando que a plataforma de IA de terceiros Context.ai, utilizada pelos colaboradores da Vercel, foi comprometida. Os atacantes obtiveram credenciais das contas dos colaboradores através da integração OAuth do Google Workspace da plataforma e, em seguida, acederam a parte do ambiente interno da Vercel e a variáveis de ambiente não assinaladas como “sensíveis”.

Cadeia de ataque: da intrusão via OAuth em ferramentas de IA à infiltração faseada no ambiente da Vercel

De acordo com a investigação da Vercel, o caminho do ataque dividiu-se em três etapas sucessivas de escalada. Em primeiro lugar, a aplicação OAuth do Google Workspace da Context.ai já tinha sido comprometida numa campanha de ataque à cadeia de abastecimento mais vasta, podendo ter afetado centenas de utilizadores em várias organizações. Em segundo lugar, os atacantes, após invadir a Context.ai, controlaram as contas do Google Workspace dos colaboradores da Vercel e usaram as respetivas credenciais para aceder aos sistemas internos da Vercel. Por fim, os atacantes, através de enumeração, obtiveram permissões de acesso adicionais a variáveis de ambiente não assinaladas como “sensíveis”.

Rauch referiu na comunicação que a velocidade das ações dos atacantes foi “impressionante”, que o seu conhecimento do sistema da Vercel foi “muito profundo” e que, na sua avaliação, é altamente provável que tenham usado ferramentas de IA para aumentar significativamente a eficiência do ataque.

Limite de segurança entre variáveis de ambiente “sensíveis” e “não sensíveis”

Este incidente revelou detalhes essenciais sobre os mecanismos de segurança das variáveis de ambiente no ambiente da Vercel: as variáveis marcadas como “sensíveis” são armazenadas de forma a impedir a leitura; até ao momento, a investigação não encontrou evidências de que esses valores tenham sido acedidos. O que foi explorado pelos atacantes foram as variáveis de ambiente não assinaladas como “sensíveis”; através de enumeração, os atacantes conseguiram obter permissões de acesso adicionais.

A Vercel já adicionou uma página de visão geral das variáveis de ambiente e uma interface de gestão das variáveis de ambiente sensíveis melhorada, para ajudar os clientes a identificar e proteger com mais clareza valores de configuração de alto risco.

Resposta urgente da Vercel e lista oficial de ações recomendadas

A Vercel contratou a Google Mandiant, outras empresas de segurança cibernética e notificou as autoridades de aplicação da lei para intervir. Os projetos open source Next.js, Turbopack e Vercel também foram confirmados como seguros através de análises da cadeia de abastecimento; os serviços da plataforma estão atualmente a funcionar normalmente.

Ações de segurança oficiais recomendadas para clientes

Verificar registos de atividade: Rever os registos de atividade da conta e do ambiente para identificar atividades suspeitas

Rodar (rotacionar) variáveis de ambiente: As variáveis de ambiente que contenham informação confidencial (chaves de API, tokens, credenciais de base de dados, chaves de assinatura), mas que não estejam marcadas como sensíveis, devem ser tratadas como possivelmente expostas e priorizadas para rotação

Ativar a funcionalidade de variáveis de ambiente sensíveis: Garantir que todos os valores de configuração confidenciais estão corretamente marcados como “sensíveis”

Rever implementações recentes: Investigar implementações anómalas e eliminar versões suspeitas

Configurar proteções de implementação: Garantir que pelo menos está definido como nível “standard” e rotacionar os tokens de proteção de implementação

Perguntas frequentes

O que é o Context.ai e como se tornou a porta de entrada para este ataque?

O Context.ai é uma pequena ferramenta de IA de terceiros que utiliza integrações com o Google Workspace OAuth e é usada pelos colaboradores da Vercel no trabalho diário. A investigação indica que a aplicação OAuth desta ferramenta foi comprometida numa campanha de ataque à cadeia de abastecimento mais ampla, podendo ter afetado centenas de utilizadores em várias organizações, enquanto as credenciais das contas dos colaboradores da Vercel foram obtidas pelos atacantes nesse processo.

As variáveis de ambiente marcadas como “sensíveis” pela Vercel foram afetadas?

Até ao momento, a investigação não encontrou evidências de que variáveis de ambiente marcadas como “sensíveis” tenham sido acedidas. Este tipo de variáveis é armazenado de uma forma especial para impedir a leitura. O que foi explorado pelos atacantes foram as variáveis de ambiente não assinaladas como “sensíveis”; através de enumeração, os atacantes conseguiram obter permissões de acesso adicionais a partir delas.

Como é que os clientes da Vercel podem confirmar se foram afetados?

Se não recebeu contacto direto da Vercel, a Vercel afirma que, atualmente, não há razão para crer que as credenciais ou dados pessoais dos clientes em questão tenham sido comprometidos. Recomenda-se que todos os clientes revejam proativamente os registos de atividade, rodem as variáveis de ambiente não assinaladas como sensíveis e ativem corretamente a funcionalidade de variáveis de ambiente sensíveis. Para apoio técnico, contacte a Vercel através de vercel.com/help.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A OpenAI nomeia Emmanuel Marill, antigo executivo da Airbnb, para liderar a expansão na EMEA

A OpenAI contrata Emmanuel Marill como director-geral para a EMEA para impulsionar a expansão perante preocupações de soberania e a concorrência da Mistral AI; as subscrições na EMEA estão a aumentar. Resumo: A OpenAI indica Emmanuel Marill como director-geral para a Europa, o Médio Oriente e África para acelerar a expansão perante preocupações de soberania e escrutínio da UE. A medida surge com o aumento das subscrições na EMEA e tem como objectivo criar uma presença local mais forte face aos rivais, como a Mistral AI.

GateNewsNeste momento

Thinking Machines Lab garante acordo cloud multibilionário com a Google

Mensagem da Gate News, 23 de abril — A Thinking Machines Lab, uma startup de IA fundada pela antiga executiva da OpenAI, Mira Murati, assinou um acordo de infraestrutura cloud com a Google Cloud avaliado em dezenas de milhões de dólares dos EUA. O acordo marca a primeira parceria da empresa com um grande fornecedor de cloud

GateNews10m atrás

O lucro operacional do 1.º trimestre da SK Hynix dispara 406% para um recorde com a procura de chips de IA

A SK Hynix divulga um lucro operacional do 1.º trimestre de 37,6 biliões de won e uma receita de 52,6 biliões de won, subindo acentuadamente com a procura impulsionada pela IA para DRAM e NAND e a mudança para inferência em tempo real.

GateNews1h atrás

A OpenAI atinge uma avaliação pré-IPO de $1 biliões no meio da corrida com a SpaceX e a Anthropic

A OpenAI aproxima-se de uma avaliação pré-IPO implícita de $1T através de apostas on-chain; a SpaceX e a Anthropic miram avaliações semelhantes à medida que os custos da infraestrutura de IA disparam, impulsionando a receita de subscrições enquanto a Anthropic enfrenta confusão nos preços.

GateNews2h atrás

A avaliação da DeepSeek dispara acima de $20 Billion à medida que a Tencent e a Alibaba ponderam investimentos

A DeepSeek procura >$20B as Tencent/Alibaba discutem investimentos; a Nvidia alerta que a vantagem das chips dos EUA poderá ser posta em causa pela Huawei; o financiamento em IA continua a acelerar, com a $1B round da Vast Data e investimentos da OpenAI/Anthropic/xAI. A DeepSeek pretende uma avaliação acima de $20 billion no meio das conversas com a Tencent e a Alibaba, enquanto a Nvidia alerta que a transferência de modelos de IA para chips da Huawei poderá corroer a liderança dos EUA. A peça também refere um aumento global do financiamento em IA, incluindo a $1 billion round da Vast Data a uma avaliação de $30 billion e grandes investimentos na OpenAI, Anthropic e xAI.

GateNews4h atrás

OpenClaw, Hermes e SillyTavern Confirmados com Suporte no GLM Coding Plan

O gestor de produto da Zhipu AI, Li, anuncia OpenClaw, Hermes e SillyTavern como projectos do GLM Coding Plan com suporte; outras ferramentas serão avaliadas caso a caso. Não partilhe credenciais nem utilize subscrições como acesso à API; contacte o suporte para o erro 1313. O gestor de produto da Zhipu AI, Li, anunciou que OpenClaw, Hermes e SillyTavern são oficialmente suportados no âmbito do GLM Coding Plan, com outras ferramentas a serem avaliadas caso a caso. A nota alerta para não partilhar credenciais nem usar subscrições como acesso à API e orienta os utilizadores que se deparem com o erro 1313 a contactar o suporte.

GateNews7h atrás
Comentar
0/400
Nenhum comentário