Anthropic Bocorkan Ribuan File Kode Sumber Claude Code Karena Kesalahan Manusia
Teknologi
Pengembangan Software
01 Apr 2026
260 dibaca
1 menit

Rangkuman 15 Detik
Kebocoran kode dari Anthropic menunjukkan potensi risiko dalam pengembangan perangkat lunak AI.
Kesalahan manusia dapat memiliki dampak besar, bahkan bagi perusahaan yang berfokus pada tanggung jawab dan keamanan.
Persaingan di bidang AI semakin ketat, dan kesalahan kecil pun dapat dimanfaatkan oleh pesaing.
Anthropic, perusahaan AI yang dikenal sangat berhati-hati, mengalami dua kali kebocoran data besar dalam waktu seminggu. Yang terbaru adalah kebocoran hampir 2.000 file kode sumber dari versi rilis Claude Code 2.1.88. Insiden ini terungkap setelah seorang peneliti keamanan mempublikasikannya di media sosial.
Claude Code adalah alat penting Anthropic untuk membantu pengembang menulis dan mengedit kode menggunakan AI. Meski yang bocor bukan model AI-nya, file yang bocor mengungkap arsitektur dan instruksi penting produk tersebut, yang dianalisis cepat oleh komunitas pengembang dan bisa bermanfaat bagi pesaing.
Kebocoran ini berpotensi memicu penguatan langkah keamanan di Anthropic dan menjadi pelajaran bagi perusahaan AI lain. Selain itu, hal ini juga menunjukkan tekanan persaingan dalam industri AI yang cepat berkembang dan pentingnya menjaga keamanan dalam pengembangan teknologi.
Analisis Ahli
Andrew Ng
Kebocoran seperti ini adalah pengingat penting bahwa selain inovasi teknologi, keamanan dan privasi harus mendapatkan perhatian yang setara dalam pengembangan AI.Kate Crawford
Insiden ini menegaskan bahwa tanggung jawab etis dalam AI tidak hanya soal hasil akhir, tapi juga bagaimana proses pengembangan dan distribusi teknologi dikelola secara aman.