Pomodo
HomeTeknologiBisnisSainsFinansial

Anthropic Perketat Aturan AI Claude untuk Cegah Senjata Mematikan dan Serangan Siber

Teknologi
Kecerdasan Buatan
artificial-intelligence (7mo ago) artificial-intelligence (7mo ago)
16 Agt 2025
45 dibaca
2 menit
Anthropic Perketat Aturan AI Claude untuk Cegah Senjata Mematikan dan Serangan Siber

Rangkuman 15 Detik

Anthropic memperketat kebijakan penggunaan Claude AI untuk mencegah penyalahgunaan dalam pengembangan senjata berbahaya.
Perlindungan baru seperti 'AI Safety Level 3' dirancang untuk meningkatkan keamanan model AI.
Kebijakan konten politik telah dilonggarkan, dengan fokus pada penghindaran penipuan dalam proses demokrasi.
Anthropic, perusahaan pengembang AI Claude, baru-baru ini memperbarui kebijakan penggunaannya untuk meningkatkan keamanan dan mencegah penyalahgunaan teknologi. Pembaruan ini muncul karena meningkatnya kekhawatiran terkait potensi bahaya AI apabila digunakan untuk tujuan yang berbahaya seperti pembuatan senjata. Kebijakan baru ini secara eksplisit melarang penggunaannya dalam pembuatan senjata berdaya ledak tinggi serta senjata biologis, nuklir, kimia, dan radiologis. Ini adalah langkah perluasan dari larangan sebelumnya yang mencakup senjata dan bahan berbahaya secara umum. Selain itu, Anthropic meluncurkan fitur AI Safety Level 3 yang membuat AI lebih sulit untuk dijailbreak dan mencegah asisten AI membantu pembuatan senjata berbahaya. Mereka juga mengenalkan pembatasan dalam kemampuan seperti mengambil alih komputer pengguna untuk mencegah serangan siber skala besar. Dengan adanya risiko yang dihadapi dari alat agentic AI, Anthropic menambahkan aturan baru mengenai larangan penggunaan Claude untuk eksploitasi keamanan siber, pembuatan malware, serta serangan penolakan layanan (DDoS). Hal ini menunjukkan fokus mereka pada keamanan siber dan etika penggunaan AI. Di sisi lain, perusahaan melonggarkan aturan terkait konten politik, hanya memblokir penggunaan yang menipu atau mengganggu proses demokrasi. Serta menegaskan bahwa aturan ketat untuk kasus penggunaan berisiko tinggi hanya berlaku untuk interaksi langsung dengan konsumen, bukan untuk penggunaan bisnis.

Analisis Ahli

Dr. A. R. Kurniawan
Kebijakan ketat Anthropic pada pembuatan senjata dan keamanan siber adalah langkah penting yang mencerminkan tren internasional dalam regulasi AI yang bertanggung jawab demi menjaga perdamaian dan keamanan global.