Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.
Courtesy of TechCrunch

Rangkuman Berita: Meta mengatakan bahwa mereka mungkin akan menghentikan pengembangan sistem AI yang dianggap terlalu berisiko.

TechCrunch
DariĀ TechCrunch
04 Februari 2025 pukul 04.52 WIB
144 dibaca
Share
CEO Meta, Mark Zuckerberg, berkomitmen untuk membuat kecerdasan buatan umum (AGI) tersedia secara terbuka di masa depan. Namun, dalam dokumen kebijakan baru yang disebut Frontier AI Framework, Meta mengidentifikasi dua jenis sistem AI yang dianggap terlalu berisiko untuk dirilis, yaitu sistem "risiko tinggi" dan "risiko kritis". Sistem risiko tinggi dapat membantu dalam serangan siber, tetapi tidak seandal sistem risiko kritis yang dapat menyebabkan hasil bencana yang tidak dapat diatasi. Contoh serangan yang disebutkan termasuk serangan terhadap lingkungan perusahaan yang dilindungi dan penyebaran senjata biologis berbahaya.
Meta menyatakan bahwa penilaian risiko sistem tidak didasarkan pada satu tes empiris, tetapi melalui masukan dari peneliti internal dan eksternal. Jika sistem dianggap berisiko tinggi, akses akan dibatasi dan tidak akan dirilis sampai risiko dapat dikurangi. Sementara itu, sistem yang dianggap berisiko kritis akan dihentikan pengembangannya hingga dapat dibuat lebih aman. Dengan Frontier AI Framework, Meta berusaha menyeimbangkan antara manfaat dan risiko dalam pengembangan AI, berbeda dengan pendekatan perusahaan lain yang mungkin kurang memperhatikan aspek keamanan.

Pertanyaan Terkait

Q
Apa yang dijanjikan oleh CEO Meta, Mark Zuckerberg, terkait kecerdasan buatan umum?
A
Mark Zuckerberg berjanji untuk membuat kecerdasan buatan umum tersedia secara terbuka di masa depan.
Q
Apa itu Kerangka AI Frontier yang diperkenalkan oleh Meta?
A
Kerangka AI Frontier adalah dokumen kebijakan yang mengidentifikasi jenis sistem AI yang dianggap terlalu berisiko untuk dirilis oleh Meta.
Q
Apa perbedaan antara sistem berisiko tinggi dan sistem berisiko kritis menurut Meta?
A
Sistem berisiko tinggi dapat memudahkan serangan, sedangkan sistem berisiko kritis dapat menyebabkan hasil bencana yang tidak dapat diminimalkan.
Q
Mengapa Meta tidak menggunakan tes empiris untuk mengklasifikasikan risiko sistem?
A
Meta tidak percaya bahwa ilmu evaluasi cukup kuat untuk memberikan metrik kuantitatif definitif dalam menentukan risiko sistem.
Q
Apa tujuan Meta dalam menerbitkan Kerangka AI Frontier ini?
A
Tujuan Meta adalah untuk mempertimbangkan manfaat dan risiko dalam pengembangan dan penerapan AI untuk menjaga manfaat teknologi sambil mengelola risiko yang sesuai.

Rangkuman Berita Serupa

Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.TechCrunch
Teknologi
1 bulan lalu
115 dibaca
Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.
Meta mengumumkan LlamaCon, konferensi pengembang AI generatif pertamanya.TechCrunch
Teknologi
2 bulan lalu
134 dibaca
Meta mengumumkan LlamaCon, konferensi pengembang AI generatif pertamanya.
CTO Meta mengatakan bahwa dia sudah memprediksi seluruh hal tentang DeepSeek 6 bulan yang lalu.YahooFinance
Teknologi
2 bulan lalu
92 dibaca
CTO Meta mengatakan bahwa dia sudah memprediksi seluruh hal tentang DeepSeek 6 bulan yang lalu.
Zuckerberg Mengatakan DeepSeek 'Memperkuat Keyakinan Kami' Saat Meta Mengeluarkan Banyak Uang untuk AIYahooFinance
Teknologi
2 bulan lalu
66 dibaca
Zuckerberg Mengatakan DeepSeek 'Memperkuat Keyakinan Kami' Saat Meta Mengeluarkan Banyak Uang untuk AI
Zuck mengabaikan DeepSeek, berjanji untuk menghabiskan ratusan miliar untuk AI.TechCrunch
Teknologi
2 bulan lalu
157 dibaca
Zuck mengabaikan DeepSeek, berjanji untuk menghabiskan ratusan miliar untuk AI.
Bom besar AI DeepSeek membuat Meta masuk ke mode 'ruang perang' untuk melawan ancaman biaya rendah.InterestingEngineering
Teknologi
2 bulan lalu
168 dibaca
Bom besar AI DeepSeek membuat Meta masuk ke mode 'ruang perang' untuk melawan ancaman biaya rendah.