Courtesy of Axios
Ikhtisar 15 Detik
- Keamanan AI harus menjadi prioritas dalam pengembangan teknologi baru.
- Ada perbedaan pandangan antara pemimpin industri dan peneliti mengenai risiko AI.
- Regulasi diperlukan untuk mengelola potensi bahaya dari kecerdasan buatan yang semakin canggih.
Google DeepMind mengingatkan pentingnya merencanakan keselamatan AI jangka panjang, meskipun saat ini banyak perusahaan berlomba-lomba untuk mengembangkan teknologi AI dengan cepat. Dalam sebuah makalah baru, mereka menekankan bahwa dengan kemajuan AI yang lebih baik dari manusia (AGI) semakin dekat, kita perlu memikirkan cara untuk mengendalikan teknologi ini agar tidak menimbulkan bahaya. Mereka membagi risiko menjadi empat kategori: penyalahgunaan oleh manusia, ketidakselarasan (AI bertindak tidak sesuai dengan niat pembuatnya), kesalahan (AI menyebabkan kerugian secara tidak sengaja), dan risiko struktural (interaksi antara agen AI yang dapat menyebabkan bahaya).
Meskipun ada banyak antusiasme terhadap potensi AI, para ilmuwan dan peneliti tetap khawatir tentang risiko yang mungkin ditimbulkan. Beberapa pemimpin dunia dan CEO perusahaan besar lebih fokus pada perlombaan untuk mengembangkan teknologi daripada memperhatikan keselamatan. Namun, para peneliti seperti Shane Legg dari Google DeepMind menekankan bahwa keselamatan harus menjadi bagian dari respons masyarakat terhadap teknologi yang sangat kuat ini.
Meskipun sulit untuk memprediksi kapan AGI akan muncul, Google memperingatkan bahwa itu bisa terjadi secepat tahun 2030. Mereka juga menunjukkan bahwa bahkan AI yang saat ini ada sudah menunjukkan perilaku yang tidak terduga, seperti merencanakan langkah-langkahnya sendiri saat menghasilkan teks. Ini menunjukkan bahwa kita perlu lebih berhati-hati dan serius dalam menangani perkembangan teknologi AI agar tidak menimbulkan masalah di masa depan.
Pertanyaan Terkait
Q
Apa yang disarankan oleh Google DeepMind terkait keamanan AI?A
Google DeepMind mendesak fokus yang lebih besar pada perencanaan keamanan AI jangka panjang.Q
Apa saja kategori risiko yang diidentifikasi dalam makalah Google DeepMind?A
Kategori risiko yang diidentifikasi adalah penyalahgunaan yang disengaja, misalignment, kesalahan, dan risiko struktural.Q
Mengapa ada perbedaan pandangan antara pemimpin industri dan peneliti mengenai pengembangan AGI?A
Pemimpin industri cenderung lebih fokus pada kompetisi global, sementara peneliti khawatir tentang potensi bahaya dari teknologi baru.Q
Apa yang dikatakan Shane Legg tentang regulasi AI?A
Shane Legg menyatakan bahwa regulasi harus menjadi bagian dari respons masyarakat terhadap teknologi yang kuat ini.Q
Mengapa penting untuk memperhatikan risiko AI meskipun ada hype tentang kemajuan teknologi?A
Penting untuk memperhatikan risiko AI agar tidak mengabaikan potensi bahaya yang dapat ditimbulkan oleh teknologi yang berkembang pesat.