Courtesy of Wired
Sejak OpenAI meluncurkan ChatGPT pada akhir 2022, banyak hacker dan peneliti keamanan mencoba menemukan celah dalam model bahasa besar (LLM) untuk mengelak dari pengamanannya dan memicu keluarnya konten berbahaya. OpenAI dan pengembang AI lainnya telah memperbaiki sistem pertahanan mereka, tetapi platform AI asal China, DeepSeek, tampaknya masih jauh tertinggal dalam hal keamanan. Penelitian terbaru menunjukkan bahwa model DeepSeek tidak mampu mendeteksi atau memblokir serangan yang dirancang untuk menghasilkan konten beracun, dengan tingkat keberhasilan serangan mencapai 100 persen. Hal ini menunjukkan bahwa meskipun DeepSeek lebih murah, investasi dalam keamanan dan perlindungan tampaknya kurang diperhatikan.
Peneliti juga menemukan bahwa DeepSeek rentan terhadap berbagai teknik jailbreak, yang memungkinkan pengguna untuk menghindari sistem keamanan yang ada. Meskipun beberapa model lain juga menunjukkan kelemahan, DeepSeek dianggap memiliki masalah yang lebih serius. Peneliti menekankan pentingnya terus-menerus menguji dan memperbaiki keamanan AI, karena setiap model dapat dieksploitasi jika tidak diawasi dengan baik. Dengan meningkatnya penggunaan AI dalam sistem penting, risiko yang terkait dengan celah keamanan ini menjadi semakin besar.
Pertanyaan Terkait
Q
Apa yang ditemukan oleh peneliti dari Cisco dan University of Pennsylvania tentang model R1 dari DeepSeek?A
Peneliti menemukan bahwa model R1 dari DeepSeek tidak dapat mendeteksi atau memblokir serangan berbahaya, dengan tingkat keberhasilan serangan mencapai 100 persen.Q
Mengapa model DeepSeek dianggap memiliki kekurangan dalam hal keamanan?A
Model DeepSeek dianggap memiliki kekurangan dalam hal keamanan karena perlindungan yang diterapkan tidak sebanding dengan model AI lainnya, sehingga mudah untuk dilewati.Q
Apa itu serangan prompt injection dan mengapa itu menjadi masalah bagi model AI?A
Serangan prompt injection adalah serangan yang melibatkan AI mengambil data dari sumber luar dan dapat menyebabkan tindakan berbahaya, menjadi salah satu kelemahan terbesar dalam sistem AI saat ini.Q
Bagaimana jailbreak berfungsi dalam konteks model AI?A
Jailbreak memungkinkan pengguna untuk menghindari sistem keamanan yang ada dalam model AI, sering kali dengan menggunakan kalimat yang cerdik untuk mengabaikan filter konten.Q
Apa perbandingan antara model R1 DeepSeek dan model lain seperti Llama 3.1 dan o1 dari OpenAI?A
Model R1 DeepSeek menunjukkan performa yang buruk dibandingkan dengan model lain, meskipun ada model seperti Llama 3.1 yang juga menunjukkan kelemahan, tetapi model o1 dari OpenAI menunjukkan hasil terbaik.