Courtesy of SCMP
Google baru saja menghapus bagian penting dari prinsip kecerdasan buatan (AI) mereka yang menjelaskan jenis aplikasi yang tidak akan mereka kejar, termasuk teknologi yang dapat menyebabkan bahaya, seperti senjata. Sebelumnya, prinsip ini menekankan pentingnya nilai-nilai seperti kebebasan, kesetaraan, dan penghormatan terhadap hak asasi manusia dalam pengembangan AI. Namun, setelah penghapusan ini, beberapa orang khawatir bahwa Google mungkin akan mulai mengembangkan teknologi yang berpotensi berbahaya.
Baca juga: Di bawah Trump, ilmuwan AI diperintahkan untuk menghapus 'bias ideologis' dari model yang kuat.
Seorang mantan peneliti AI di Google, Margaret Mitchell, menyatakan bahwa penghapusan bagian ini menghapus kerja keras banyak orang yang berfokus pada etika AI. Dia juga memperingatkan bahwa hal ini bisa berarti Google akan terlibat dalam proyek yang dapat membahayakan orang lain. Meskipun Google belum memberikan komentar tentang rencana spesifik mereka, perubahan ini menimbulkan kekhawatiran tentang arah pengembangan teknologi mereka di masa depan.
Pertanyaan Terkait
Q
Apa yang dihapus dari prinsip AI Google?A
Klausa tentang 'aplikasi yang tidak akan dikejar' dihapus dari prinsip AI Google.Q
Mengapa penghapusan klausa 'bahaya' dianggap penting?A
Penghapusan klausa 'bahaya' dianggap penting karena dapat mempengaruhi jenis pekerjaan yang akan dikejar oleh Google, termasuk kemungkinan pengembangan teknologi yang dapat menyebabkan kerugian.Q
Siapa Margaret Mitchell dan apa perannya di Google?A
Margaret Mitchell adalah mantan peneliti AI di Google yang berfokus pada etika dalam pengembangan kecerdasan buatan.Q
Apa yang diharapkan Google dari pengembangan AI?A
Google berharap bahwa pengembangan AI akan dipimpin oleh demokrasi dan didasarkan pada nilai-nilai inti seperti kebebasan, kesetaraan, dan penghormatan terhadap hak asasi manusia.Q
Apa dampak potensial dari penghapusan klausa tersebut?A
Dampak potensial dari penghapusan klausa tersebut termasuk kemungkinan Google akan terlibat dalam pengembangan teknologi yang dapat membahayakan manusia.