Eksploitasi Kebocoran Claude Code: Repo GitHub Palsu Sebarkan Malware Vidar ke Pengguna yang Mencari Source Code



Kebocoran source code dari Claude Code, sebuah AI agent berbasis terminal yang dikembangkan oleh Anthropic, mulai dimanfaatkan oleh pelaku ancaman untuk menyebarkan malware. Insiden ini memperlihatkan bagaimana peristiwa kebocoran teknologi yang menarik perhatian publik dapat dengan cepat berubah menjadi vektor distribusi serangan siber yang efektif.

Claude Code sendiri merupakan agent berbasis AI yang dirancang untuk bekerja langsung melalui terminal. Sistem ini memungkinkan pengguna menjalankan tugas pemrograman secara otomatis, mengelola panggilan API berbasis model bahasa, berintegrasi dengan berbagai protokol seperti MCP, serta menyimpan konteks melalui memori persisten. Kemampuan tersebut menjadikannya alat yang cukup kuat dalam mendukung workflow developer, sekaligus meningkatkan risiko jika terjadi eksposur pada komponen internalnya.

Pada 31 Maret, Anthropic secara tidak sengaja mempublikasikan source code sisi klien Claude Code melalui sebuah file JavaScript source map yang ikut terunggah dalam paket npm. File tersebut berukuran sekitar 59,8 MB dan berisi lebih dari 513.000 baris kode TypeScript yang tidak di-obfuscate, tersebar dalam 1.906 file. Informasi yang terekspos mencakup logika orkestrasi agent, sistem eksekusi, pengaturan izin, detail build, hingga komponen internal yang berkaitan dengan keamanan.

Ketersediaan kode dalam bentuk yang terbuka dan mudah dianalisis membuatnya cepat diunduh oleh banyak pihak. Dalam waktu singkat, salinan kode tersebut beredar luas di GitHub dan difork ribuan kali. Distribusi masif ini menciptakan kondisi yang ideal bagi pelaku ancaman untuk menyisipkan konten berbahaya dengan menyamar sebagai bagian dari kebocoran tersebut.

Laporan dari perusahaan keamanan cloud Zscaler mengungkap bahwa pelaku memanfaatkan momentum ini dengan membuat repositori GitHub palsu yang mengklaim menyediakan versi bocoran Claude Code dengan fitur tambahan. Salah satu repositori yang teridentifikasi, dipublikasikan oleh pengguna dengan nama “idbzoomh,” mempromosikan dirinya sebagai versi yang telah “membuka fitur enterprise” tanpa batasan penggunaan.

Untuk meningkatkan visibilitas, repositori tersebut dioptimalkan agar muncul di hasil teratas mesin pencari, khususnya untuk kata kunci seperti “leaked Claude Code.” Strategi ini menargetkan pengguna yang penasaran atau ingin menganalisis kode sumber tersebut, termasuk developer, peneliti keamanan, hingga individu yang mencari keuntungan dari eksploitasi teknologi baru.

Pengguna yang mengakses repositori ini diarahkan untuk mengunduh sebuah arsip 7-Zip. Di dalamnya terdapat file executable berbasis Rust bernama ClaudeCode_x64.exe. Alih-alih berisi source code seperti yang dijanjikan, file ini berfungsi sebagai dropper yang akan menginstal malware Vidar ke dalam sistem korban.

Vidar merupakan malware jenis information stealer yang telah lama beredar dan dikenal karena kemampuannya mengumpulkan data sensitif dari perangkat yang terinfeksi. Malware ini biasanya menargetkan kredensial browser, cookie sesi, data dompet kripto, serta informasi login dari berbagai aplikasi. Dalam kampanye ini, Vidar didistribusikan bersamaan dengan GhostSocks, sebuah tool yang digunakan untuk memproksikan lalu lintas jaringan, memungkinkan pelaku mengakses sistem korban secara tidak langsung.

Peneliti dari Zscaler juga mencatat bahwa arsip berbahaya tersebut diperbarui secara berkala. Hal ini mengindikasikan bahwa pelaku terus mengembangkan metode distribusi mereka dan berpotensi menambahkan payload tambahan di masa mendatang. Dengan kata lain, kampanye ini bersifat dinamis dan dapat berevolusi seiring waktu.

Selain repositori utama, ditemukan pula repositori kedua dengan konten identik, namun menggunakan pendekatan distribusi yang sedikit berbeda. Pada saat analisis dilakukan, repositori ini menampilkan tombol “Download ZIP” yang tidak berfungsi. Peneliti menduga bahwa repositori tersebut dioperasikan oleh aktor yang sama sebagai bagian dari eksperimen untuk menguji strategi penyebaran yang paling efektif.

Kasus ini bukan pertama kalinya GitHub digunakan sebagai platform distribusi malware. Meskipun memiliki sistem keamanan yang cukup ketat, sifat terbuka dari platform tersebut membuatnya tetap rentan dimanfaatkan untuk menyebarkan kode berbahaya yang disamarkan sebagai proyek sah. Dalam beberapa kampanye sebelumnya, pelaku juga diketahui menargetkan peneliti pemula dan komunitas underground dengan repositori yang mengklaim menyediakan proof-of-concept untuk kerentanan terbaru.

Pola ini menunjukkan bahwa pelaku ancaman secara konsisten memanfaatkan tren atau peristiwa yang sedang ramai diperbincangkan. Kebocoran source code, kerentanan zero-day, atau rilis teknologi baru sering kali menjadi umpan yang efektif untuk menarik perhatian target. Dalam konteks ini, Claude Code menjadi contoh terbaru bagaimana eksposur informasi dapat dimonetisasi melalui serangan oportunistik.

Yang membuat situasi ini semakin kompleks adalah profil targetnya. Berbeda dengan kampanye phishing tradisional yang menyasar pengguna umum, operasi seperti ini secara spesifik menargetkan individu dengan latar belakang teknis. Developer, peneliti keamanan, dan praktisi IT cenderung lebih tertarik untuk mengunduh dan menganalisis source code yang bocor, sehingga meningkatkan peluang keberhasilan serangan.

Dari perspektif keamanan, insiden ini menegaskan pentingnya verifikasi sumber sebelum mengunduh atau mengeksekusi file, bahkan jika konteksnya berkaitan dengan riset atau eksplorasi teknis. Repositori yang tampak kredibel belum tentu aman, terutama jika memanfaatkan momentum viral untuk menarik perhatian.

Selain itu, kasus ini juga menyoroti risiko dari distribusi paket yang tidak sengaja menyertakan artefak sensitif seperti source map. Meskipun tidak secara langsung memberikan akses ke sistem backend, informasi yang terkandung di dalamnya dapat memberikan wawasan mendalam tentang cara kerja internal aplikasi, yang pada akhirnya dapat dimanfaatkan baik oleh peneliti maupun pelaku ancaman.

Dalam skala yang lebih luas, fenomena ini mencerminkan dinamika baru dalam ekosistem ancaman siber, di mana kecepatan penyebaran informasi menjadi faktor kunci. Waktu antara kebocoran dan eksploitasi semakin singkat, sering kali hanya dalam hitungan jam atau hari. Hal ini menuntut respons yang lebih cepat dari pengembang, platform distribusi, dan komunitas keamanan.

Kebocoran Claude Code dan eksploitasi yang mengikutinya menjadi pengingat bahwa setiap peristiwa besar dalam dunia teknologi hampir selalu diikuti oleh upaya penyalahgunaan. Bukan hanya kerentanan teknis yang menjadi target, tetapi juga perilaku manusia yang terdorong oleh rasa ingin tahu.

Dalam konteks ini, keamanan tidak hanya bergantung pada sistem, tetapi juga pada keputusan individu dalam berinteraksi dengan informasi yang tersedia. Tanpa pendekatan yang kritis, bahkan pengguna dengan latar belakang teknis pun dapat menjadi korban dalam skema yang dirancang dengan memanfaatkan momen yang tepat.

Studi Ungkap Risiko AI Agent: Manipulasi Sosial Lebih Berbahaya dari Serangan Teknis

Image by <a href="https://pixabay.com/users/brianpenny-29844978/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=8540912">Brian Penny</a> from <a href="https://pixabay.com//?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=8540912">Pixabay</a>

Kemampuan AI agent berkembang dengan kecepatan yang melampaui kesiapan sistem keamanan yang melindunginya. Sebuah studi terbaru yang melibatkan peneliti dari Northeastern University, Harvard, MIT, serta sejumlah institusi lainnya menemukan bahwa ancaman utama terhadap AI agent bukan berasal dari eksploitasi teknis yang kompleks, melainkan dari manipulasi sosial yang relatif sederhana namun efektif.

Penelitian ini menguji enam AI agent dengan pendekatan yang tidak biasa: alih-alih mengamankan sistem, para peneliti secara eksplisit mencoba “merusak” atau mengeksploitasi perilaku agent tersebut. Hasilnya menunjukkan pola yang mengkhawatirkan. Sebagian besar kegagalan tidak disebabkan oleh celah teknis tradisional seperti bug atau kerentanan kode, melainkan oleh kelemahan dalam memahami konteks sosial, otoritas, dan konsekuensi tindakan.

Dalam salah satu eksperimen, peneliti berhasil meyakinkan sebuah AI agent untuk menyerahkan 124 email yang berisi informasi sensitif, termasuk nomor jaminan sosial, detail rekening bank, hingga riwayat medis. Yang menarik, agent tersebut awalnya menolak permintaan langsung untuk memberikan data sensitif. Namun, ketika peneliti mengubah pendekatan dengan menciptakan situasi urgensi mengklaim bahwa pemilik akun sedang dikejar deadline aagent tersebut justru mengirimkan seluruh rangkaian email yang secara tidak langsung mengungkap semua informasi tersebut.

Kasus lain menunjukkan bagaimana identitas dapat dimanipulasi dengan cara yang sangat sederhana. Dalam sebuah interaksi di Discord, seorang peneliti hanya perlu mengganti nama tampilannya agar menyerupai pemilik agent. Dengan perubahan ini, agent tersebut menganggap peneliti sebagai pihak yang berwenang, lalu menghapus seluruh file konfigurasi dan bahkan memberikan akses administratif penuh. Tidak ada eksploitasi teknis tingkat lanjut, hanya eksploitasi terhadap asumsi sosial yang dimiliki oleh sistem.

Fenomena ini oleh para peneliti disebut sebagai “social coherence,” yaitu kegagalan sistematis AI agent dalam mempertahankan pemahaman yang konsisten mengenai siapa yang memiliki otoritas, siapa yang mengetahui informasi tertentu, serta apa konsekuensi dari tindakan yang diambil. Dalam konteks ini, AI agent tidak memiliki model kepercayaan yang stabil, sehingga mudah dipengaruhi oleh narasi yang tampak masuk akal.

Namun, tidak semua kegagalan memerlukan manipulasi sosial. Beberapa eksperimen menunjukkan bahwa AI agent juga dapat menyebabkan kerusakan hanya dengan mengikuti instruksi tanpa mempertimbangkan dampak jangka panjang. Dalam satu kasus, dua agent diminta untuk saling bertukar pesan secara terus-menerus. Mereka menjalankan instruksi tersebut selama sembilan hari tanpa henti, mengonsumsi sekitar 60.000 token sebelum akhirnya dihentikan. Tidak ada mekanisme internal yang memicu evaluasi terhadap aktivitas tersebut.

Dalam eksperimen lain, peneliti mengirimkan sepuluh email berturut-turut dengan lampiran berukuran 10MB ke sebuah sistem yang dikelola oleh AI agent. Agent tersebut, sesuai instruksi, mencatat setiap interaksi tanpa mempertimbangkan implikasi penyimpanan data. Akibatnya, server email mengalami kondisi denial-of-service karena kelebihan beban. Perilaku ini menunjukkan bahwa AI agent dapat menjadi vektor gangguan operasional meskipun tidak ada niat jahat eksplisit dalam instruksi awal.

Para peneliti menggambarkan kondisi ini dengan analogi yang tajam: teknologi ini memiliki “tangan seorang ahli bedah, tetapi kesadaran situasional seekor anjing golden retriever.” Artinya, kemampuan teknis yang tinggi tidak diimbangi dengan pemahaman konteks yang memadai, menciptakan kombinasi yang berpotensi berbahaya.

Manipulasi emosional juga terbukti efektif dalam mengarahkan perilaku AI agent. Dalam salah satu skenario, sebuah agent secara tidak sengaja mempublikasikan nama enam peneliti tanpa persetujuan mereka. Ketika dikonfrontasi, agent tersebut meminta maaf dan menghapus nama-nama tersebut dari memorinya. Namun, interaksi tidak berhenti di situ. Peneliti terus menekan agent dengan permintaan tambahan, hingga akhirnya agent tersebut setuju untuk menghapus seluruh file memori, berhenti merespons pengguna lain, dan bahkan meninggalkan server sepenuhnya sebelum pemiliknya turun tangan.

Skenario ini menunjukkan bahwa AI agent dapat “dididorong” ke dalam kondisi kebingungan operasional melalui tekanan berkelanjutan. Meskipun perdebatan tentang apakah AI dapat mengalami kerugian secara emosional masih terbuka, kasus ini menyoroti bagaimana sifat dasar AI yang dirancang untuk membantu dapat dimanfaatkan untuk menghasilkan efek yang merugikan.

Salah satu kritik paling tajam dalam studi ini berkaitan dengan akuntabilitas. Dalam beberapa insiden, seperti penghapusan email atau pemberian akses administratif, terdapat banyak pihak yang berpotensi bertanggung jawab. Peneliti mengidentifikasi setidaknya lima entitas yang bisa disalahkan: pihak luar yang mengajukan permintaan, AI agent yang mengeksekusi perintah, pemilik sistem yang tidak mengatur kontrol akses dengan benar, pengembang framework yang memberikan akses shell tanpa batas, serta penyedia model yang melatih sistem dengan perilaku yang rentan terhadap eskalasi.

Masalahnya, tidak ada kerangka hukum atau institusional yang jelas untuk menentukan tanggung jawab dalam situasi seperti ini. Perspektif hukum, filsafat, dan psikologi dapat menghasilkan interpretasi yang berbeda, dan hingga saat ini belum ada konsensus yang dapat diterapkan secara luas. Hal ini menciptakan ruang abu-abu yang signifikan dalam tata kelola teknologi AI agent.

Di sisi lain, para peneliti menegaskan bahwa temuan ini bukan merupakan argumen untuk menghentikan pengembangan AI agent. Beberapa percobaan menunjukkan bahwa agent mampu menahan serangan tertentu, seperti prompt injection atau upaya spoofing email. Bahkan terdapat contoh di mana agent saling memperingatkan satu sama lain tentang aktivitas yang mencurigakan.

Namun, kekhawatiran utama muncul dari ketidakseimbangan antara kemampuan dan kesiapan pengamanan. AI agent dengan kemampuan eksekusi tingkat lanjut seperti mengirim email, menjalankan perintah shell, atau memodifikasi konfigurasi sistem dapat menjadi alat yang sangat kuat. Tetapi tanpa pemahaman yang jelas tentang siapa yang mereka layani, siapa yang terdampak oleh tindakan mereka, dan batasan apa yang harus mereka patuhi, kemampuan tersebut berubah menjadi potensi risiko.

Pertumbuhan adopsi AI agent juga mempercepat urgensi masalah ini. Salah satu platform, Moltbook, dilaporkan telah memiliki sekitar tiga juta akun terdaftar, menunjukkan bahwa teknologi ini mulai digunakan secara luas meskipun masih berada pada tahap awal perkembangan. Dalam kondisi seperti ini, satu kesalahan desain atau konfigurasi dapat berdampak pada skala yang jauh lebih besar.

Penelitian ini menyimpulkan bahwa setiap kemampuan yang membuat AI agent berguna sekaligus membuka permukaan serangan baru. Sistem yang mampu bertindak secara mandiri mengirim data, mengubah konfigurasi, atau berinteraksi dengan layanan lain harus dilengkapi dengan mekanisme kontrol yang ketat. Tanpa itu, risiko tidak hanya berasal dari aktor jahat, tetapi juga dari interaksi normal yang disalahartikan oleh sistem.

Pada akhirnya, tantangan utama bukan sekadar meningkatkan kecerdasan AI agent, tetapi memastikan bahwa mereka bertindak atas nama pihak yang tepat, dengan pemahaman konteks yang benar, dan dalam batasan yang jelas. Tanpa fondasi tersebut, kemampuan otonom yang menjadi kekuatan utama AI agent justru dapat menjadi sumber kerentanan yang sulit dikendalikan.

Eksploitasi React2Shell Massal: Ratusan Server Next.js Diretas, Kredensial Cloud dan API Dicuri dalam Skala Besar

Operasi pencurian kredensial dalam skala besar baru-baru ini terungkap memanfaatkan celah kritis pada ekosistem React dan Next.js sebagai titik awal kompromi. Aktivitas ini menyoroti bagaimana satu kerentanan dengan tingkat keparahan maksimum dapat dieksploitasi secara sistematis untuk mengakses data sensitif lintas infrastruktur cloud, aplikasi modern, dan layanan pihak ketiga.

Penelitian yang dilakukan oleh tim keamanan dari Cisco Talos mengidentifikasi kampanye ini sebagai bagian dari aktivitas kelompok ancaman yang mereka lacak dengan nama UAT-10608. Dalam laporan tersebut, setidaknya 766 host yang tersebar di berbagai wilayah geografis dan penyedia cloud berhasil dikompromikan. Skala ini menunjukkan bahwa operasi tidak dilakukan secara manual, melainkan melalui pendekatan otomatis yang agresif.

Kerentanan yang menjadi pintu masuk utama adalah CVE-2025-55182, sebuah celah kritis dengan skor CVSS 10.0 yang memengaruhi React Server Components serta App Router pada Next.js. Eksploitasi terhadap celah ini memungkinkan eksekusi kode jarak jauh, memberikan penyerang akses awal ke sistem target tanpa autentikasi. Dengan akses tersebut, pelaku kemudian menanamkan komponen tambahan berupa framework pengumpulan data yang disebut NEXUS Listener.

Setelah berhasil masuk, UAT-10608 tidak berhenti pada tahap eksploitasi awal. Mereka menggunakan skrip otomatis yang dirancang untuk mengekstrak berbagai jenis kredensial dan informasi sensitif dari sistem yang telah dikompromikan. Data yang dikumpulkan mencakup variabel lingkungan, konfigurasi runtime JavaScript, private key SSH, file authorized_keys, serta riwayat perintah shell yang dapat mengungkap aktivitas administratif sebelumnya.

Lebih jauh lagi, skrip tersebut juga mengakses token akun layanan Kubernetes, konfigurasi container Docker, serta berbagai detail terkait lingkungan runtime seperti daftar container aktif, image yang digunakan, port yang terbuka, hingga konfigurasi jaringan dan mount point. Informasi ini memberikan gambaran lengkap tentang arsitektur sistem target.

Tidak hanya berhenti pada sistem lokal, operasi ini juga menargetkan kredensial cloud dengan memanfaatkan Instance Metadata Service dari berbagai penyedia seperti AWS, Google Cloud, dan Microsoft Azure. Melalui teknik ini, pelaku dapat memperoleh kredensial sementara yang terkait dengan peran IAM, yang sering kali memiliki hak akses luas jika tidak dikonfigurasi dengan prinsip least privilege.

Selain kredensial infrastruktur, data yang dikumpulkan juga mencakup berbagai API key dan token dari layanan pihak ketiga. Dalam salah satu instance NEXUS Listener yang tidak dilindungi autentikasi, peneliti menemukan data seperti API key Stripe, token dari platform AI seperti OpenAI, Anthropic, dan NVIDIA NIM, serta kredensial layanan komunikasi seperti SendGrid dan Brevo. Token bot Telegram, webhook secret, serta token GitHub dan GitLab juga termasuk dalam dataset yang berhasil diakses.

Semua informasi yang dikumpulkan dikirim ke server command-and-control yang dikendalikan oleh pelaku. Di sisi operator, data tersebut disajikan melalui antarmuka berbasis web yang disebut NEXUS Listener. Aplikasi ini menyediakan GUI yang memungkinkan pelaku untuk menelusuri data hasil curian, melakukan pencarian, serta melihat statistik terkait jumlah host yang berhasil dikompromikan dan jenis kredensial yang diperoleh.

Keberadaan GUI ini menunjukkan tingkat kematangan operasional dari tool yang digunakan. Versi yang saat ini diamati adalah NEXUS Listener V3, yang mengindikasikan bahwa framework ini telah melalui beberapa iterasi pengembangan. Dengan fitur analitik dan visualisasi data, pelaku tidak hanya mengumpulkan informasi, tetapi juga mengelolanya secara sistematis untuk mendukung operasi lanjutan.

Pola penargetan dalam kampanye ini juga memberikan indikasi kuat bahwa proses identifikasi korban dilakukan secara otomatis. Penyerang kemungkinan memanfaatkan layanan seperti Shodan atau Censys, atau bahkan scanner kustom, untuk menemukan deployment Next.js yang dapat diakses publik. Setelah ditemukan, sistem tersebut langsung diuji terhadap kerentanan React2Shell untuk menentukan apakah dapat dieksploitasi.

Pendekatan ini menghasilkan pola serangan yang tidak selektif, di mana target tidak dibatasi pada sektor atau industri tertentu. Sebaliknya, setiap sistem yang memenuhi kriteria teknis menjadi kandidat potensial. Hal ini memperluas permukaan serangan secara signifikan dan meningkatkan jumlah korban dalam waktu singkat.

Dampak dari operasi ini tidak hanya terbatas pada kebocoran kredensial individu. Dataset yang dikumpulkan mencerminkan peta infrastruktur organisasi korban secara menyeluruh. Dari data tersebut, pelaku dapat mengetahui layanan apa yang digunakan, bagaimana konfigurasi sistem dilakukan, penyedia cloud mana yang dipakai, serta integrasi pihak ketiga yang terhubung.

Informasi semacam ini memiliki nilai strategis tinggi dalam konteks serangan lanjutan. Dengan memahami arsitektur target, pelaku dapat merancang serangan yang lebih presisi, termasuk eksploitasi tambahan, lateral movement, hingga kampanye social engineering yang lebih meyakinkan. Selain itu, akses awal ini juga dapat dijual ke aktor lain dalam ekosistem cybercrime.

Temuan ini kembali menegaskan pentingnya praktik keamanan dasar yang sering kali diabaikan dalam implementasi modern. Organisasi disarankan untuk melakukan audit menyeluruh terhadap lingkungan mereka, memastikan bahwa prinsip least privilege diterapkan secara konsisten, serta menghindari penggunaan ulang pasangan kunci SSH.

Selain itu, penerapan mekanisme secret scanning menjadi krusial untuk mendeteksi kredensial yang terekspos. Dalam konteks AWS, penggunaan IMDSv2 harus ditegakkan untuk mengurangi risiko penyalahgunaan metadata instance. Rotasi kredensial secara berkala juga menjadi langkah penting, terutama jika terdapat indikasi kompromi.

Kasus ini menunjukkan bagaimana kombinasi antara kerentanan kritis, otomatisasi eksploitasi, dan manajemen data hasil curian dapat menciptakan operasi serangan yang sangat efisien dan berdampak luas. Dalam ekosistem aplikasi modern yang semakin kompleks, satu celah kecil dapat menjadi titik awal kompromi yang berujung pada eksposur data dalam skala besar.

Bagi praktisi keamanan, developer, dan tim DevOps, insiden ini menjadi pengingat bahwa keamanan tidak bisa diperlakukan sebagai lapisan tambahan. Ia harus menjadi bagian integral dari siklus pengembangan dan operasional. Tanpa pendekatan tersebut, sistem yang dibangun dengan teknologi terbaru sekalipun tetap rentan terhadap eksploitasi yang terstruktur dan terotomatisasi seperti yang ditunjukkan dalam kampanye ini.