Kebocoran Besar Model AI Anthropic Menguji Kepercayaan Publik dan Keamanan
Teknologi
Kecerdasan Buatan
01 Apr 2026
135 dibaca
1 menit

Rangkuman 15 Detik
Kebocoran data di Anthropic memperlihatkan risiko besar dalam pengembangan AI.
OpenAI melanjutkan pengembangan model baru dengan pendekatan yang lebih hati-hati.
Keamanan dalam pengembangan AI perlu ditingkatkan untuk mencegah kebocoran informasi yang dapat disalahgunakan.
Dua perusahaan AI besar, OpenAI dan Anthropic, merilis model AI terbaru mereka dengan cara yang sangat berbeda. OpenAI meluncurkan model 'Spud' secara terencana sementara Anthropic terkena kebocoran besar yang mengungkap hampir 3.000 aset rahasia mereka, termasuk kode sumber dan fitur internal.
Kebocoran Anthropic disebabkan oleh pengaturan salah pada sistem manajemen konten yang menyebabkan informasi model 'Claude Mythos' dan lainnya dapat diakses publik. Informasi ini termasuk fitur yang belum dirilis, kode yang mudah dipahami, serta peta sumber yang dipublikasikan tanpa sengaja di npm registry.
Insiden ini menimbulkan keraguan serius terhadap kemampuan keamanan perusahaan dalam melindungi teknologi AI mereka. Selain itu, hal ini menggarisbawahi risiko perkembangan AI yang tidak diawasi dengan ketat, yang dapat dimanfaatkan oleh pelaku kejahatan siber untuk melakukan serangan yang lebih canggih di masa depan.
Analisis Ahli
Matt Binder
Menguraikan secara rinci bagaimana kebocoran ini memperlihatkan semua lapisan pengembangan AI yang seharusnya rahasia dan bagaimana dampaknya terhadap kepercayaan publik.Ruben Dominguez
Memberikan analisis teknis mendalam tentang fitur-fitur tersembunyi yang terbongkar dan implikasi keamanan yang menyertainya.

