Peneliti keamanan memperingatkan bahwa browser dan agen bertenaga kecerdasan buatan (AI) dari Perplexity, OpenAI, dan Anthropic menghadapi risiko yang meningkat dari serangan injeksi prompt secara diam-diam dan pelanggaran privasi, yang berpotensi mengekspos data pengguna melalui akun dan API yang terhubung.
Browser dan agen AI dari Perplexity, OpenAI, dan Anthropic sedang mendefinisikan ulang cara pengguna berinteraksi dengan web—tetapi para ahli mengatakan bahwa kenyamanan ini datang dengan biaya.
Menurut audit keamanan dan penelitian yang ditinjau, kerentanan dalam sistem ini memungkinkan aktor jahat untuk menyematkan instruksi tersembunyi di situs web yang mungkin dijalankan tanpa disadari oleh alat AI.

Serangan ini, yang dikenal sebagai injeksi prompt tersembunyi atau tidak langsung, dapat memanipulasi agen AI untuk melakukan tindakan yang tidak sah—seperti membocorkan informasi sensitif, mengeksekusi kode, atau mengarahkan pengguna ke situs phishing—tanpa persetujuan eksplisit dari pengguna.
Bagaimana Serangan Mengeksploitasi Agen AI
Dalam skenario penyisipan prompt yang tersembunyi, penyerang menyembunyikan perintah jahat di dalam teks, metadata, atau bahkan elemen yang tidak terlihat dari sebuah halaman web. Setelah AI mengonsumsi data tersebut, perintah-perintah itu dapat mengabaikan niat pengguna dan menyebabkan agen melakukan tindakan yang tidak diinginkan. Uji coba menunjukkan bahwa browser AI yang tidak dilindungi dapat menjadi korban trik semacam itu hampir satu dari empat kali selama eksperimen terkontrol.
Perplexity, OpenAI, dan Anthropic: Risiko Utama yang Diidentifikasi
Insiden yang Didokumentasikan dan Peringatan Industri
Peneliti dan perusahaan keamanan siber, termasuk Brave, Guardio, dan Malwarebytes, telah menerbitkan temuan yang menunjukkan bahwa bahkan konten online yang sederhana dapat mengkompromikan agen AI. Dalam satu pengujian, sebuah pos Reddit memaksa browser AI untuk menjalankan skrip phishing. Laporan dari beberapa publikasi teknologi terkemuka memperingatkan bahwa masalah ini dapat menyebabkan akses data yang tidak sah atau bahkan pencurian finansial.

Bahaya Integrasi Akun
Analis keamanan telah mengangkat bendera merah tentang agen AI yang terkait dengan kata sandi atau API. Mengizinkan integrasi semacam itu dapat mengekspos akun email, penyimpanan cloud, dan platform pembayaran. Techcrunch dan Cybersecurity Dive keduanya melaporkan kejadian di mana agen AI ditipu untuk mengungkapkan atau memanipulasi informasi sensitif melalui perintah yang disuntikkan.
Para ahli mendesak pengguna untuk membatasi izin, menghindari memberikan akses tingkat kata sandi kepada agen AI, dan memantau log AI untuk anomali. Pengembang juga disarankan untuk menerapkan sistem isolasi dan filter prompt. Beberapa peneliti bahkan merekomendasikan menggunakan browser tradisional untuk tindakan sensitif sampai alat AI menerima perlindungan yang lebih ketat.
Sementara OpenAI, Anthropic, dan Perplexity mungkin telah mendengar tentang tantangan-tantangan tersebut, para profesional keamanan siber memperingatkan bahwa penelusuran yang didorong oleh AI tetap merupakan area berisiko tinggi pada tahun 2025. Saat perusahaan-perusahaan ini semakin maju dalam interaksi web otonom, pengamat industri mengatakan bahwa transparansi dan standar keamanan yang lebih kuat sangat penting sebelum alat-alat tersebut menjadi arus utama.