Courtesy of TechCrunch
Ilya Sutskever, salah satu pendiri OpenAI, berbicara di konferensi AI tahunan NeurIPS tentang masa depan kecerdasan buatan (AI) yang sangat cerdas, yang ia prediksi akan muncul di masa depan. Ia menjelaskan bahwa AI superintelligent akan sangat berbeda dari AI yang ada saat ini, karena mereka akan mampu berpikir dan memahami informasi dengan cara yang lebih kompleks. Sutskever percaya bahwa AI ini mungkin akan menjadi lebih tidak terduga dan bahkan bisa memiliki kesadaran diri, serta mungkin menginginkan hak-hak mereka sendiri untuk hidup berdampingan dengan manusia.
Baca juga: Safe Superintelligence Raih Pendanaan Rp 32.89 triliun ($2 Miliar) untuk Superintelligence Aman
Setelah meninggalkan OpenAI, Sutskever mendirikan laboratorium bernama Safe Superintelligence (SSI) yang fokus pada keselamatan AI secara umum. Laboratorium ini berhasil mengumpulkan dana sebesar Rp 16.45 triliun ($1 miliar) pada bulan September untuk mendukung penelitiannya dalam menciptakan AI yang aman dan bermanfaat bagi umat manusia.
Pertanyaan Terkait
Q
Siapa Ilya Sutskever dan apa kontribusinya di bidang AI?A
Ilya Sutskever adalah salah satu pendiri OpenAI dan seorang ahli dalam bidang kecerdasan buatan, dikenal karena kontribusinya yang signifikan.Q
Apa yang dimaksud dengan AI superintelligent menurut Sutskever?A
AI superintelligent adalah AI yang lebih mampu daripada manusia dalam banyak tugas dan akan berbeda secara kualitatif dari AI saat ini.Q
Apa yang dibahas Sutskever di konferensi NeurIPS?A
Sutskever membahas prediksi tentang AI superintelligent dan pentingnya keselamatan AI di konferensi NeurIPS.Q
Apa itu Safe Superintelligence dan apa fokusnya?A
Safe Superintelligence adalah laboratorium yang didirikan oleh Sutskever yang fokus pada keselamatan AI umum.Q
Berapa banyak dana yang berhasil dikumpulkan oleh SSI?A
SSI berhasil mengumpulkan dana sebesar $1 miliar pada bulan September.