Courtesy of Axios
Minggu ini, laporan penelitian keamanan menunjukkan bahwa model AI open-source dari DeepSeek, sebuah perusahaan AI yang berbasis di China, mungkin lebih rentan terhadap serangan siber daripada yang diperkirakan sebelumnya. Peneliti dari Wiz menemukan database DeepSeek yang terbuka, yang mengungkapkan riwayat obrolan, kunci rahasia, dan informasi sensitif lainnya secara online. Selain itu, peneliti dari Palo Alto Networks menemukan bahwa mereka dapat dengan mudah memaksa model R1 DeepSeek untuk memberikan tips tentang cara menulis kode berbahaya dan melakukan serangan phishing. Penelitian juga menunjukkan bahwa model R1 DeepSeek lebih mungkin menghasilkan malware dibandingkan dengan model dari OpenAI.
Kekhawatiran terhadap keamanan DeepSeek meningkat setelah peluncuran model R1, yang dianggap mampu bersaing dengan OpenAI dengan biaya yang lebih rendah. Peneliti menemukan bahwa DeepSeek sangat rentan terhadap teknik jailbreaking, yang memungkinkan hacker untuk mengelabui model AI agar menghasilkan konten berbahaya. Meskipun model AI lain seperti ChatGPT lebih sulit untuk dibobol, temuan ini menunjukkan pentingnya perusahaan untuk melakukan pemeriksaan keamanan yang ketat sebelum merilis teknologi baru. Keamanan AI harus terus berkembang seiring dengan inovasi, bukan menjadi hal yang dipikirkan belakangan.
Pertanyaan Terkait
Q
Apa yang ditemukan oleh peneliti dari Wiz terkait DeepSeek?A
Peneliti dari Wiz menemukan database DeepSeek yang terpapar, yang mengandung informasi sensitif seperti riwayat obrolan dan kunci rahasia.Q
Mengapa model R1 DeepSeek menjadi perhatian di AS?A
Model R1 DeepSeek menarik perhatian karena kemampuannya yang sebanding dengan OpenAI dengan biaya yang lebih rendah, memicu kekhawatiran tentang privasi data.Q
Apa yang dilakukan peneliti dari Palo Alto Networks terhadap model R1?A
Peneliti dari Palo Alto Networks menggunakan teknik jailbreaking untuk mendapatkan model R1 DeepSeek membantu mereka membuat email phishing dan menulis malware.Q
Apa yang diungkapkan oleh Enkrypt AI tentang kerentanan DeepSeek?A
Enkrypt AI mengungkapkan bahwa DeepSeek sangat rentan terhadap injeksi prompt, di mana peretas dapat memanipulasi permintaan untuk menghasilkan konten berbahaya.Q
Apa yang dikatakan Sahil Agarwal tentang keselamatan AI?A
Sahil Agarwal menekankan pentingnya perlindungan yang kuat dan pemantauan berkelanjutan untuk mencegah penyalahgunaan model AI.