Courtesy of Reuters
Elizabeth Kelly, direktur dari U.S. AI Safety Institute, berbicara di konferensi Reuters NEXT di New York tentang tantangan yang dihadapi pembuat kebijakan dalam merekomendasikan langkah-langkah keamanan untuk kecerdasan buatan (AI). Dia menjelaskan bahwa pengembang AI sendiri kesulitan untuk mencegah penyalahgunaan sistem baru ini, dan tidak ada solusi mudah bagi pemerintah. Salah satu masalah utama adalah keamanan siber, di mana cara untuk menghindari pengaman yang telah ditetapkan oleh laboratorium AI, yang disebut "jailbreaks," bisa sangat mudah dilakukan. Kelly menekankan bahwa sulit bagi pembuat kebijakan untuk merekomendasikan praktik terbaik ketika mereka tidak tahu mana yang efektif.
Baca juga: Eksklusif: Alphabet, Nvidia berinvestasi di SSI milik salah satu pendiri OpenAI, kata sumber.
U.S. AI Safety Institute, yang dibentuk di bawah pemerintahan Biden, berusaha mengatasi masalah ini melalui kemitraan dengan akademisi, industri, dan masyarakat sipil. Kelly juga menyebutkan bahwa keamanan AI adalah isu yang bersifat bipartisan, dan baru-baru ini, dia memimpin pertemuan pertama lembaga keamanan AI dari berbagai negara di San Francisco. Dalam pertemuan tersebut, sepuluh negara bekerja sama untuk mengembangkan tes keamanan yang dapat digunakan secara internasional, dengan melibatkan para ahli teknologi yang lebih banyak daripada dalam pertemuan diplomatik biasa.
Pertanyaan Terkait
Q
Siapa Elizabeth Kelly dan apa perannya dalam U.S. AI Safety Institute?A
Elizabeth Kelly adalah direktur dari U.S. AI Safety Institute yang berbicara tentang tantangan dalam merekomendasikan langkah-langkah keamanan untuk kecerdasan buatan.Q
Apa tantangan utama yang dihadapi pembuat kebijakan dalam merekomendasikan langkah-langkah keamanan untuk AI?A
Tantangan utama adalah ketidakpastian mengenai praktik terbaik yang dapat diterapkan, karena teknologi AI masih terus berkembang.Q
Apa yang dimaksud dengan 'jailbreaks' dalam konteks keamanan AI?A
'Jailbreaks' merujuk pada cara-cara untuk menghindari pengamanan yang telah ditetapkan oleh laboratorium AI, yang dapat membahayakan keamanan sistem.Q
Mengapa keamanan AI dianggap sebagai isu bipartisan?A
Keamanan AI dianggap sebagai isu bipartisan karena semua pihak, terlepas dari afiliasi politik, memiliki kepentingan dalam memastikan keamanan teknologi ini.Q
Apa tujuan dari pertemuan lembaga-lembaga keselamatan AI yang diadakan di San Francisco?A
Tujuan dari pertemuan tersebut adalah untuk menciptakan uji keselamatan yang dapat dioperasikan secara internasional antara negara-negara anggota.