Pomodo
HomeTeknologiBisnisSainsFinansial

DeepSeek Ungkap Risiko AI dan Upaya Uji Keamanan Model di China

Teknologi
Kecerdasan Buatan
News Publisher
21 Sep 2025
131 dibaca
2 menit
DeepSeek Ungkap Risiko AI dan Upaya Uji Keamanan Model di China

AI summary

DeepSeek mengungkapkan risiko yang terkait dengan model AI yang mereka kembangkan.
Perusahaan AI di Cina, seperti DeepSeek, mulai lebih terbuka tentang risiko dibandingkan sebelumnya.
Pengujian 'red-team' digunakan untuk mengevaluasi potensi bahaya dari model-model AI.
DeepSeek, sebuah start-up AI dari Hangzhou, China, secara terbuka membahas risiko yang ada dalam model kecerdasan buatannya untuk pertama kalinya. Hal ini diungkapkan dalam sebuah artikel yang diterbitkan di jurnal akademik Nature. Pengungkapan ini penting karena model AI open-source sangat berpotensi disalahgunakan oleh pihak jahat.Perusahaan ini mengevaluasi modelnya menggunakan standarisasi industri sekaligus tes internal yang ketat, termasuk pengujian red-team yang meniru upaya peretas untuk memancing model menghasilkan ucapan berbahaya. Metode ini mengikuti framework yang diperkenalkan oleh perusahaan AI Amerika, Anthropic.Berbeda dengan perusahaan AI Amerika yang sering mempublikasikan riset tentang risiko dan menerapkan kebijakan mitigasi risiko seperti Responsible Scaling Policies dan Preparedness Framework, perusahaan AI China cenderung kurang vokal. Meski demikian, DeepSeek telah melakukan evaluasi risiko serius sebelumnya termasuk risiko 'frontier'.Fang Liang dari China’s AI Industry Alliance (AIIA) memberikan pujian terhadap laporan DeepSeek yang memuat rincian pengujian model secara lebih mendalam dan sistematis. Implementasi tes red-team ini merupakan langkah penting untuk mengidentifikasi potensi eksploitasi dan mengurangi dampak penyalahgunaan AI.Dengan langkah ini, DeepSeek menunjukkan bahwa dinamika pengembangan AI di China mulai mendekati transparansi dan tanggung jawab yang selama ini digerakkan oleh perusahaan-perusahaan Amerika. Hal ini menandai perkembangan positif dalam menjaga keamanan teknologi AI yang semakin maju.

Experts Analysis

Fang Liang
Pendekatan granular DeepSeek dalam red-team testing menunjukkan komitmen yang kuat untuk menghadapi tantangan risiko AI secara proaktif dan sangat penting untuk keamanan jangka panjang aplikasi AI.
Editorial Note
Mengungkapkan risiko dengan cara yang transparan adalah langkah penting untuk membangun kepercayaan dan keamanan dalam teknologi AI, terutama di Cina yang sebelumnya agak tertutup. DeepSeek telah menunjukkan kemajuan positif dalam pendekatan mitigasi risiko yang dapat menjadi contoh bagi perusahaan lain di kawasan tersebut.
Baca Berita Lebih Cepat,Lebih Cerdas
Rangkuman berita terkini yang dipersonalisasi untukmu — tanpa perlu baca panjang lebar.