Pesquisadores de segurança estão alertando que navegadores e agentes alimentados por inteligência artificial (AI) da Perplexity, OpenAI e Anthropic enfrentam riscos crescentes de ataques encobertos de injeção de prompt e violações de privacidade, potencialmente expondo dados de usuários através de contas e APIs conectadas.
Os navegadores e agentes de IA da Perplexity, OpenAI e Anthropic estão a redefinir a forma como os utilizadores interagem com a web—mas os especialistas dizem que a conveniência tem um preço.
De acordo com as auditorias de segurança e pesquisas revisadas, as vulnerabilidades nesses sistemas permitem que atores maliciosos integrem instruções ocultas em websites que ferramentas de IA podem executar sem saber.

Esses ataques, conhecidos como injeções de prompt encobertas ou indiretas, podem manipular agentes de IA a realizar ações não autorizadas—como vazar informações sensíveis, executar código ou redirecionar usuários para sites de phishing—sem o consentimento explícito do usuário.
Como os Ataques Exploraram Agentes de IA
Em cenários de injeção de prompt encoberta, os atacantes escondem comandos maliciosos dentro do texto de uma página da web, metadados ou até mesmo elementos invisíveis. Uma vez que uma IA ingere esses dados, os comandos podem sobrepor a intenção do usuário e fazer com que o agente tome ações indesejadas. Testes mostram que navegadores de IA desprotegidos podem ser vítimas de tais truques quase uma em cada quatro vezes durante experimentos controlados.
Perplexidade, OpenAI e Anthropic: Riscos Chave Identificados
Incidentes Documentados e Avisos da Indústria
Pesquisadores e empresas de cibersegurança, incluindo Brave, Guardio e Malwarebytes, publicaram descobertas que mostram que mesmo conteúdo online simples pode comprometer agentes de IA. Em um teste, uma postagem no Reddit forçou um navegador de IA a executar scripts de phishing. Relatórios de várias publicações de tecnologia renomadas alertaram que esses problemas poderiam levar ao acesso não autorizado a dados ou até mesmo ao roubo financeiro.

Os Perigos da Integração de Contas
Analistas de segurança levantaram bandeiras vermelhas sobre agentes de IA ligados a senhas ou APIs. Permitir tais integrações pode expor contas de e-mail, drives na nuvem e plataformas de pagamento. O Techcrunch e o Cybersecurity Dive reportaram ambos casos em que agentes de IA foram enganados para revelar ou manipular informações sensíveis através de comandos injetados.
Especialistas aconselham os utilizadores a limitarem permissões, evitar conceder acesso ao nível de senha a agentes de IA e a monitorizar os registos de IA em busca de anomalias. Os desenvolvedores também são aconselhados a implementar sistemas de isolamento e filtros de aviso. Alguns investigadores até recomendam o uso de navegadores tradicionais para ações sensíveis até que as ferramentas de IA recebam salvaguardas mais rigorosas.
Enquanto a OpenAI, a Anthropic e a Perplexity provavelmente já ouviram falar dos desafios, profissionais de cibersegurança alertam que a navegação impulsionada por IA continua a ser uma área de alto risco em 2025. À medida que estas empresas avançam mais na interação web autónoma, observadores da indústria afirmam que a transparência e normas de segurança mais rigorosas são essenciais antes que essas ferramentas se tornem correntes.