DeepMind Bahas Bahaya dan Langkah Keselamatan untuk AGI Sebelum 2030
Teknologi
Kecerdasan Buatan
02 Apr 2025
171 dibaca
2 menit

Rangkuman 15 Detik
DeepMind memperkirakan AGI dapat muncul sebelum tahun 2030 dan berpotensi menyebabkan risiko eksistensial.
Pendekatan mitigasi risiko AGI DeepMind berbeda dari Anthropic dan OpenAI, dengan fokus pada pelatihan dan keamanan yang lebih kuat.
Tantangan dalam penelitian keamanan AI mencakup teknik yang masih berkembang dan perlunya perencanaan proaktif untuk mengurangi bahaya.
Pada hari Rabu, Google DeepMind menerbitkan sebuah makalah panjang tentang pendekatan keselamatan mereka terhadap AGI, yaitu kecerdasan buatan yang dapat melakukan semua tugas yang bisa dilakukan manusia. Dalam makalah tersebut, DeepMind memprediksi bahwa AGI bisa muncul sebelum tahun 2030 dan dapat menyebabkan "bahaya serius," termasuk risiko eksistensial yang dapat menghancurkan umat manusia. Mereka menyebut AGI yang luar biasa sebagai sistem yang memiliki kemampuan setara dengan 99 persen orang dewasa terampil dalam berbagai tugas non-fisik.
Makalah ini juga membandingkan pendekatan DeepMind dalam mitigasi risiko AGI dengan pendekatan dari perusahaan lain seperti Anthropic dan OpenAI. DeepMind berpendapat bahwa Anthropic kurang menekankan pada pelatihan dan keamanan yang kuat, sementara OpenAI terlalu optimis dalam mengotomatiskan penelitian keselamatan AI. DeepMind meragukan kemungkinan munculnya AI superintelligent tanpa inovasi arsitektur yang signifikan, tetapi mereka percaya bahwa AI saat ini dapat meningkatkan dirinya sendiri, yang bisa sangat berbahaya.
Beberapa ahli berpendapat bahwa konsep AGI terlalu tidak jelas untuk dievaluasi secara ilmiah. Mereka juga mengingatkan bahwa masalah yang lebih realistis adalah AI yang memperkuat dirinya sendiri dengan informasi yang tidak akurat. Dengan banyaknya output AI generatif di internet, ada risiko bahwa kita bisa percaya pada informasi yang salah karena disajikan dengan cara yang meyakinkan. Meskipun makalah DeepMind sangat komprehensif, perdebatan tentang seberapa realistis AGI dan masalah keselamatan AI yang paling mendesak masih belum terpecahkan.
Analisis Ahli
Heidy Khlaaf
Saya pikir konsep AGI terlalu kabur dan sulit dinilai secara ilmiah secara ketat.Matthew Guzdial
Recursive AI improvement adalah dasar argumen singularitas kecerdasan, tapi sampai sekarang belum ada bukti nyata.Sandra Wachter
Kekhawatiran realistis adalah AI memperkuat dirinya sendiri dengan keluaran yang tidak akurat dan halusinasi yang meyakinkan.

