Pomodo
HomeTeknologiBisnisSainsFinansial

DeepSeek Ungkap Risiko AI dan Upaya Uji Keamanan Model di China

Teknologi
Kecerdasan Buatan
artificial-intelligence (6mo ago) artificial-intelligence (6mo ago)
21 Sep 2025
175 dibaca
2 menit
DeepSeek Ungkap Risiko AI dan Upaya Uji Keamanan Model di China

Rangkuman 15 Detik

DeepSeek mengungkapkan risiko yang terkait dengan model AI yang mereka kembangkan.
Perusahaan AI di Cina, seperti DeepSeek, mulai lebih terbuka tentang risiko dibandingkan sebelumnya.
Pengujian 'red-team' digunakan untuk mengevaluasi potensi bahaya dari model-model AI.
DeepSeek, sebuah start-up AI dari Hangzhou, China, secara terbuka membahas risiko yang ada dalam model kecerdasan buatannya untuk pertama kalinya. Hal ini diungkapkan dalam sebuah artikel yang diterbitkan di jurnal akademik Nature. Pengungkapan ini penting karena model AI open-source sangat berpotensi disalahgunakan oleh pihak jahat. Perusahaan ini mengevaluasi modelnya menggunakan standarisasi industri sekaligus tes internal yang ketat, termasuk pengujian red-team yang meniru upaya peretas untuk memancing model menghasilkan ucapan berbahaya. Metode ini mengikuti framework yang diperkenalkan oleh perusahaan AI Amerika, Anthropic. Berbeda dengan perusahaan AI Amerika yang sering mempublikasikan riset tentang risiko dan menerapkan kebijakan mitigasi risiko seperti Responsible Scaling Policies dan Preparedness Framework, perusahaan AI China cenderung kurang vokal. Meski demikian, DeepSeek telah melakukan evaluasi risiko serius sebelumnya termasuk risiko 'frontier'. Fang Liang dari China’s AI Industry Alliance (AIIA) memberikan pujian terhadap laporan DeepSeek yang memuat rincian pengujian model secara lebih mendalam dan sistematis. Implementasi tes red-team ini merupakan langkah penting untuk mengidentifikasi potensi eksploitasi dan mengurangi dampak penyalahgunaan AI. Dengan langkah ini, DeepSeek menunjukkan bahwa dinamika pengembangan AI di China mulai mendekati transparansi dan tanggung jawab yang selama ini digerakkan oleh perusahaan-perusahaan Amerika. Hal ini menandai perkembangan positif dalam menjaga keamanan teknologi AI yang semakin maju.

Analisis Ahli

Fang Liang
Pendekatan granular DeepSeek dalam red-team testing menunjukkan komitmen yang kuat untuk menghadapi tantangan risiko AI secara proaktif dan sangat penting untuk keamanan jangka panjang aplikasi AI.