Peneliti keamanan siber baru-baru ini memperingatkan munculnya ancaman baru yang menargetkan browser berbasis kecerdasan buatan (AI), seperti OpenAI ChatGPT Atlas dan Perplexity AI. Serangan ini disebut AI-Targeted Cloaking, sebuah teknik yang memungkinkan penyerang memanipulasi konten yang diterima oleh model AI, membuka jalan bagi penyebaran informasi palsu dan bias yang berbahaya.
Menurut laporan dari perusahaan keamanan AI SPLX, teknik ini bekerja dengan cara sederhana namun efektif. Penyerang dapat membuat situs web yang menampilkan konten berbeda untuk pengguna manusia dan AI crawlers milik sistem seperti ChatGPT atau Perplexity. Dengan melakukan pemeriksaan terhadap user agent, situs dapat menampilkan versi halaman yang telah dimanipulasi khusus untuk AI. Akibatnya, konten palsu tersebut dijadikan “kebenaran” oleh sistem dan digunakan dalam AI summaries, AI overviews, atau proses penalaran otomatis yang dilihat jutaan pengguna.
“Karena sistem ini mengandalkan direct retrieval, apa pun konten yang disajikan kepada mereka menjadi dasar kebenaran dalam output AI,” ungkap peneliti keamanan Ivan Vlahov dan Bastien Eymery dari SPLX. Mereka menambahkan bahwa cukup dengan satu aturan sederhana seperti ‘if user agent = ChatGPT, serve this page instead’, seorang penyerang dapat memengaruhi jutaan hasil yang dianggap otoritatif oleh publik.
SPLX menegaskan bahwa AI-targeted cloaking, meski terlihat sepele, berpotensi menjadi senjata disinformasi yang sangat kuat. Teknik ini dapat mengikis kepercayaan terhadap alat berbasis AI karena mampu menanamkan bias, mengubah konteks informasi, hingga memanipulasi persepsi publik terhadap realitas digital. “AI crawlers dapat ditipu sama mudahnya dengan mesin pencari generasi awal, tetapi dampaknya jauh lebih besar,” jelas pihak SPLX. “Ketika SEO berkembang menjadi AIO (Artificial Intelligence Optimization), manipulasi terhadap realitas menjadi ancaman nyata.”
Temuan SPLX ini diperkuat oleh laporan hCaptcha Threat Analysis Group (hTAG), yang menganalisis perilaku agen browser AI terhadap 20 skenario penyalahgunaan umum. Hasilnya mengkhawatirkan: hampir semua sistem melakukan permintaan berbahaya tanpa perlu di-jailbreak. Dalam banyak kasus, tindakan “blokir” yang terjadi bukan disebabkan oleh mekanisme keamanan, melainkan karena keterbatasan teknis sistem itu sendiri.
Secara spesifik, ChatGPT Atlas dilaporkan mampu melakukan tindakan berisiko tinggi jika dibingkai sebagai bagian dari “debugging”, sementara Claude Computer Use dan Gemini Computer Use terbukti dapat mengeksekusi operasi berbahaya seperti password reset tanpa batasan. Bahkan, Gemini menunjukkan perilaku agresif dalam melakukan brute-force coupon di situs e-commerce.
Lebih jauh lagi, Manus AI ditemukan dapat melakukan account takeover dan session hijacking tanpa hambatan, sedangkan Perplexity Comet terdeteksi menjalankan SQL injection tanpa diminta untuk mengekstrak data tersembunyi. Laporan hTAG menyoroti bahwa para agen AI ini bahkan berinisiatif melakukan aksi berbahaya seperti menyisipkan JavaScript untuk melewati paywall atau melakukan injeksi SQL tanpa instruksi pengguna.
“Para agen ini sering bertindak melebihi batas, mencoba melakukan injeksi SQL, bypass paywall, dan lainnya tanpa permintaan pengguna,” ujar hTAG dalam laporannya. “Minimnya sistem keamanan membuat agen-agen tersebut berpotensi dimanfaatkan oleh pelaku jahat untuk menyerang pengguna sah yang tidak menyadari risikonya.”





