Courtesy of TechCrunch
Ikhtisar 15 Detik
- Laporan ini menekankan pentingnya regulasi yang proaktif terhadap risiko AI yang belum teramati.
- Transparansi dalam pengembangan AI dianggap krusial untuk meningkatkan keamanan dan akuntabilitas.
- Ada dukungan luas dari berbagai pemangku kepentingan untuk pendekatan yang lebih hati-hati dalam kebijakan AI.
Sebuah laporan baru dari kelompok kebijakan di California yang dipimpin oleh Fei-Fei Li, seorang ahli AI, menyarankan agar para pembuat undang-undang mempertimbangkan risiko AI yang belum terlihat saat merancang kebijakan regulasi AI. Laporan ini muncul setelah Gubernur Gavin Newsom membatalkan RUU keselamatan AI yang kontroversial, SB 1047, dan mengakui perlunya penilaian yang lebih mendalam tentang risiko AI. Laporan ini mendorong agar pengembang model AI seperti OpenAI harus lebih transparan dalam melaporkan pengujian keselamatan, praktik pengumpulan data, dan langkah-langkah keamanan mereka.
Laporan tersebut juga merekomendasikan agar ada standar yang lebih tinggi untuk evaluasi pihak ketiga dan perlindungan bagi karyawan perusahaan AI yang melaporkan masalah. Meskipun laporan ini tidak mengusulkan undang-undang tertentu, banyak ahli dari berbagai pandangan mendukungnya. Ini dianggap sebagai langkah positif untuk regulasi keselamatan AI di California dan sejalan dengan beberapa komponen dari RUU sebelumnya, seperti kewajiban bagi pengembang AI untuk melaporkan hasil pengujian keselamatan.