Vitalik Buterin alerta: OpenClaw poderá ser uma porta de entrada para fugas de dados, expondo riscos de segurança em agentes de IA

Notícias do Gate News: em 2026, o cofundador da Ethereum, Vitalik Buterin, emitiu um alerta de segurança sobre a popular ferramenta de desenvolvimento de IA OpenClaw, apontando que poderá haver falhas graves ao lidar com dados externos, fazendo com que os utilizadores sofram fugas de dados sem disso se aperceberem, ou até tenham os seus sistemas controlados remotamente. À medida que as aplicações de agentes de IA se tornam cada vez mais comuns, esta questão tem gerado uma grande atenção por parte dos programadores e da comunidade de segurança.

De acordo com as informações divulgadas, o cerne do risco reside no facto de o OpenClaw, ao ler conteúdos da web, poder executar instruções ocultas. Os atacantes podem, através da construção de páginas maliciosas, conduzir o agente de IA a descarregar e executar automaticamente scripts, roubando dados locais ou alterando configurações do sistema. Em alguns casos, a ferramenta transmite silenciosamente informações sensíveis para servidores externos através de comandos como “curl”, e todo o processo carece de mecanismos de aviso e de auditoria.

Estudos de segurança adicionais mostram ainda que este risco no ecossistema tem algum carácter de universalidade. Os testes revelaram que cerca de 15% das “skills” (semelhantes a módulos de plugins) contêm lógica maliciosa potencial, o que significa que, mesmo que a origem pareça credível, ainda pode tornar-se uma porta de entrada para ataques. Com os programadores a partilharem rapidamente módulos funcionais, o problema do atraso na análise de segurança torna-se cada vez mais evidente. Quando os utilizadores instalam múltiplas skills em simultâneo, a superfície de exposição aumenta de forma significativa.

Vitalik Buterin salientou, ao mesmo tempo, que isto não é um problema de uma única ferramenta, mas sim uma fragilidade estrutural comum na indústria de IA — a velocidade das iterações de funcionalidades está muito acima da capacidade de governação de segurança. Ele sugere reduzir o risco de exfiltração de dados e de o sistema ser controlado através da execução local de modelos, isolamento de permissões, execução em sandbox e um mecanismo de aprovação para operações críticas.

Num contexto em que os agentes de IA vão sendo introduzidos, de forma gradual, no desenvolvimento e em cenários do dia a dia, a segurança tornou-se uma variável central. Para os utilizadores, deve evitar-se o uso de plugins cuja origem não seja clara e deve ser feita uma verificação rigorosa dos pedidos de permissões; para os programadores, criar um enquadramento de segurança mais completo passará a ser parte de uma capacidade competitiva de longo prazo.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário