Perusahaan Besar AI Masih Gagal dalam Menjaga Keamanan Teknologi Mereka
Courtesy of Forbes

Perusahaan Besar AI Masih Gagal dalam Menjaga Keamanan Teknologi Mereka

Menilai dan memberikan insentif bagi perusahaan pengembang AI untuk meningkatkan standar keselamatan dan transparansi dalam pengembangan AI demi mencegah risiko eksistensial yang dapat membahayakan peradaban manusia.

10 Des 2025, 04.47 WIB
273 dibaca
Share
Ikhtisar 15 Detik
  • Indeks Keamanan AI menunjukkan bahwa perusahaan-perusahaan teknologi masih perlu banyak perbaikan dalam hal keselamatan dan transparansi.
  • Tidak ada perusahaan yang berhasil mencapai standar keamanan eksistensial yang memadai.
  • Regulasi yang lebih ketat dan standar yang jelas dibutuhkan untuk memperbaiki keamanan AI.
Berkeley, Amerika Serikat - Future of Life Institute baru saja merilis AI Safety Index yang menilai enam perusahaan terkemuka di bidang AI berdasarkan berbagai aspek seperti transparansi dan keselamatan. Indeks ini memberi gambaran bahwa sebagian besar perusahaan masih mendapat nilai rendah, terutama dalam hal kesiapan mengatasi risiko besar AI.
Indeks tersebut adalah alat untuk memberikan tekanan publik agar perusahaan AI meningkatkan praktik keselamatan sebelum regulasi pemerintah dapat disahkan. Beberapa perusahaan seperti Anthropic dan OpenAI mencatat kemajuan, sementara yang lain masih berkutat dengan nilai rendah.
Salah satu temuan paling mengkhawatirkan adalah tidak ada perusahaan yang memiliki rencana yang dapat dipercaya untuk mengendalikan AI superintelligent, sesuatu yang sangat penting mengingat risiko eksistensial yang bisa ditimbulkan AI di masa depan.
Selain perusahaan Amerika dan Eropa, indeks kali ini juga memasukkan perusahaan AI besar dari Cina, yang juga menunjukkan skor rendah karena kurangnya transparansi dan strategi keselamatan yang lemah. Hal ini menegaskan bahwa tantangan keselamatan AI bersifat global.
Para ahli sepakat bahwa kemajuan kemampuan AI jauh lebih cepat daripada kemajuan dalam standar keselamatan. Tanpa regulasi dan kesepakatan internasional yang ketat, perlombaan AI berisiko membawa akibat yang tidak diinginkan bagi umat manusia.
Referensi:
[1] https://www.forbes.com/sites/craigsmith/2025/12/09/ai-makers-get-low-grades-for-safety/

Analisis Ahli

Max Tegmark
"Index ini dibuat untuk memberi insentif perbaikan, bukan untuk mempermalukan; pentingnya regulasi agar perusahaan dapat bersaing dalam standar keselamatan bukan kecepatan."
Sabina Nong
"Tidak ada perusahaan yang memiliki rencana benar-benar kredibel untuk mengendalikan AI superintelligent, menunjukkan adanya celah besar dalam kesiapan keselamatan eksistensial."
Stuart Russell
"Paradigma saat ini menggunakan model black-box yang sangat besar dapat saja tidak mampu menjamin keselamatan dan kontrol, sehingga harus ada pendekatan baru."

Analisis Kami

"Meski ada kemajuan kecil dalam transparansi, keselamatan AI masih jauh dari cukup dan terlalu banyak perusahaan berkompetisi tanpa batasan yang jelas. Tanpa intervensi regulasi yang tegas, perlombaan AI ini berpotensi menimbulkan krisis keamanan besar yang mungkin sulit dikendalikan di masa depan."

Prediksi Kami

Jika regulasi yang kuat dan standar keselamatan tidak segera diterapkan, pengembangan AI yang cepat dan tanpa kontrol dapat memicu risiko eksistensial serius bagi peradaban manusia dan memperburuk potensi bahaya AI yang tidak terkendali.

Pertanyaan Terkait

Q
Apa tujuan dari Indeks Keamanan AI yang dirilis oleh Future of Life Institute?
A
Tujuan dari Indeks Keamanan AI adalah untuk memberikan umpan balik publik dan mendorong perusahaan untuk meningkatkan transparansi dan praktik keselamatan terkait AI.
Q
Bagaimana perusahaan-perusahaan teknologi dinilai dalam Indeks Keamanan AI?
A
Perusahaan-perusahaan teknologi dinilai berdasarkan enam kategori: penilaian risiko, bahaya saat ini, kerangka kerja keselamatan, strategi keselamatan eksistensial, tata kelola dan akuntabilitas, serta transparansi dan komunikasi.
Q
Apa yang menjadi kekhawatiran utama terkait keselamatan eksistensial AI?
A
Kekhawatiran utama terkait keselamatan eksistensial AI adalah bahwa AI yang tidak terkontrol dapat menimbulkan risiko bencana bagi peradaban.
Q
Siapa yang mengarahkan Future of Life Institute?
A
Future of Life Institute dipimpin oleh Max Tegmark, seorang fisikawan dari MIT.
Q
Mengapa tidak ada perusahaan yang mendapatkan nilai passing dalam kategori keselamatan eksistensial?
A
Tidak ada perusahaan yang mendapatkan nilai passing dalam kategori keselamatan eksistensial karena tidak ada yang dapat mengartikulasikan rencana yang kredibel untuk mengendalikan sistem superintelligent.