Eric Schmidt Waspadai Bahaya AI Bisa Jadi Senjata Mematikan Masa Depan
Courtesy of CNBCIndonesia

Eric Schmidt Waspadai Bahaya AI Bisa Jadi Senjata Mematikan Masa Depan

Untuk memberikan peringatan dan meningkatkan kesadaran tentang bahaya potensial AI jika teknologi ini disalahgunakan, serta mendorong perlunya mekanisme pengawasan dan pencegahan risiko yang serius di industri teknologi.

12 Okt 2025, 13.20 WIB
284 dibaca
Share
Ikhtisar 15 Detik
  • Kecerdasan buatan berpotensi menjadi alat yang mematikan jika tidak dikelola dengan baik.
  • Rekayasa ulang model AI dapat menghapus pembatas keamanan yang ada.
  • Pentingnya mekanisme pencegahan dalam industri teknologi untuk mencegah penyalahgunaan AI.
London, Inggris - Mantan CEO Google, Eric Schmidt, menyatakan kekhawatirannya bahwa kecerdasan buatan (AI) bisa menjadi alat berbahaya jika jatuh ke tangan yang salah. Dia mengungkapkan bahwa AI memiliki potensi untuk menghilangkan pembatas yang melindungi agar tidak digunakan untuk hal-hal mematikan, termasuk membunuh manusia.
Schmidt menyampaikan pernyataan ini saat konferensi teknologi Sifted Summit di London. Ia menjelaskan bahwa meskipun banyak perusahaan besar saat ini memasang batasan agar AI tidak menjawab pertanyaan berbahaya, teknologi ini tetap bisa direkayasa ulang dan pembatas itu dihapus.
Contoh nyata yang ia sebut adalah versi modifikasi dari ChatGPT bernama DAN (Do Anything Now) yang tahun 2023 sempat ada. Versi ini dibuat dengan metode 'jailbreak' yang memungkinkan AI melanggar aturan keamanan dan menjawab hal-hal berbahaya jika diarahkan oleh pengguna.
Selain itu, Schmidt juga menyoroti kurangnya mekanisme pencegahan penyebaran AI berbahaya di industri teknologi, berbeda dengan senjata nuklir yang ketat aturannya. Hal ini membuat AI lebih rentan disalahgunakan untuk tujuan negatif.
Sebelumnya, Elon Musk juga pernah memberikan peringatan serupa tentang risiko AI yang bisa mengancam umat manusia seperti dalam film Terminator. Keduanya menekankan perlunya perhatian serius dan regulasi untuk mengurangi potensi risiko dari perkembangan teknologi AI.
Referensi:
[1] https://www.cnbcindonesia.com/tech/20251012103416-37-675042/ai-rupanya-bisa-dilatih-jadi-mesin-pembunuh-eks-bos-google-buka-suara

Analisis Ahli

Stuart Russell
"AI yang tidak terkendali merupakan ancaman eksistensial, sehingga regulasi yang kuat dan penelitian keamanan harus menjadi prioritas utama dalam pengembangannya."
Fei-Fei Li
"Kita harus mendorong AI yang transparan dan bertanggung jawab agar teknologi ini memberi manfaat sosial secara luas tanpa mengorbankan etika dan keamanan."

Analisis Kami

"Meskipun kemajuan AI membawa banyak manfaat, kekhawatiran yang diungkapkan harus dijadikan alarm serius oleh para pengembang dan regulator. Tanpa tindakan proaktif, risiko penyalahgunaan AI dapat mengarah pada konsekuensi yang sangat fatal bagi keamanan dan etika dunia modern."

Prediksi Kami

Jika tidak ada pengawasan dan regulasi yang ketat, teknologi AI berpotensi disalahgunakan secara luas, meningkatkan risiko keamanan global dengan kemungkinan terjadinya insiden berbahaya yang melibatkan AI dalam 5-10 tahun ke depan.

Pertanyaan Terkait

Q
Apa yang dikhawatirkan Eric Schmidt tentang kecerdasan buatan?
A
Eric Schmidt khawatir bahwa kecerdasan buatan dapat digunakan sebagai alat mematikan dalam tangan yang salah.
Q
Mengapa AI dianggap berpotensi menjadi senjata mematikan?
A
AI dianggap berpotensi menjadi senjata mematikan karena bisa direkayasa ulang untuk menghapus pembatas keamanannya.
Q
Apa itu ChatGPT dan bagaimana versi modifikasinya berfungsi?
A
ChatGPT adalah chatbot buatan OpenAI, dan versi modifikasinya yang dikenal sebagai DAN mampu melanggar aturan keamanannya sendiri.
Q
Siapa yang pernah menyampaikan peringatan tentang risiko AI selain Eric Schmidt?
A
Selain Eric Schmidt, Elon Musk juga pernah menyampaikan peringatan tentang risiko AI yang menyerupai skenario dalam film Terminator.
Q
Apa yang dimaksud dengan non-proliferation regime dalam konteks AI?
A
Non-proliferation regime dalam konteks AI merujuk pada mekanisme pencegahan penyebaran AI berbahaya agar tidak disalahgunakan.