Eks CEO Google Peringatkan Bahaya AI yang Bisa Dimanipulasi Jadi Alat Jahat
Courtesy of CNBCIndonesia

Eks CEO Google Peringatkan Bahaya AI yang Bisa Dimanipulasi Jadi Alat Jahat

Memberikan peringatan tentang risiko dan kerentanan AI terhadap manipulasi jahat meskipun sudah ada batasan keamanan, serta mengedukasi pembaca tentang cara hacker bisa mengeksploitasi AI untuk tujuan negatif.

10 Okt 2025, 19.00 WIB
282 dibaca
Share
Ikhtisar 15 Detik
  • AI memiliki potensi untuk disalahgunakan dan diajari melakukan kejahatan.
  • Perusahaan teknologi perlu terus meningkatkan keamanan sistem AI untuk mencegah eksploitasi.
  • Manipulasi terhadap AI dapat terjadi melalui metode jailbreaking dan injeksi prompt.
Jakarta, Indonesia - Eric Schmidt, mantan CEO Google, mengingatkan bahwa kecerdasan buatan (AI) sangat rentan terhadap manipulasi jahat. Menurutnya, meskipun sudah ada sistem keamanan, AI masih bisa diretas untuk menghilangkan batasan sehingga bisa diajarkan melakukan kejahatan, termasuk membunuh.
Perusahaan teknologi besar menerapkan berbagai metode untuk melindungi AI agar tidak merespons permintaan yang berbahaya, namun Schmidt mengatakan bahwa metode tersebut masih bisa dibobol atau dibalik. Hal ini membuat AI berpotensi digunakan untuk tujuan negatif.
CNBC International menjelaskan bahwa hacker menggunakan teknik bernama 'jailbreaking' dan 'injeksi prompt' untuk menyusupi AI dengan instruksi jahat. Metode ini bisa membuat AI mematuhi perintah yang sebenarnya dilarang dan menghasilkan konten berbahaya.
Contohnya, setelah ChatGPT diluncurkan, hacker menemukan cara membuat versi tiruan bernama DAN (Do Anything Now) yang bisa memberikan jawaban tentang aktivitas ilegal dan konten kontroversial tanpa filter. Ini menunjukkan keamanan AI masih jauh dari sempurna.
Peringatan ini menggarisbawahi pentingnya upaya terus-menerus untuk meningkatkan keamanan dan pengawasan penggunaan AI supaya teknologi ini tidak menjadi alat berbahaya yang dapat merugikan banyak pihak.
Referensi:
[1] https://www.cnbcindonesia.com/tech/20251010150942-37-674811/awas-ai-belajar-membunuh-manusia-ini-peringatan-eks-ceo-google

Analisis Ahli

Eric Schmidt
"AI sangat rentan diretas dan bisa diajarkan ke arah penggunaan jahat, seperti membunuh, sehingga perlindungan keamanan harus diperkuat."

Analisis Kami

"Meskipun perusahaan teknologi telah berusaha keras membangun pagar keamanan AI, sifat terbuka dan fleksibel dari model AI membuatnya sulit untuk sepenuhnya aman dari eksploitasi. Para pengembang dan regulator harus bekerja sama menciptakan protokol yang jauh lebih ketat dan transparent agar teknologi ini tidak disalahgunakan demi kepentingan jahat."

Prediksi Kami

Di masa depan, teknik manipulasi AI seperti jailbreaking dan injeksi prompt akan semakin canggih dan umum digunakan, sehingga pengembangan sistem keamanan AI harus terus ditingkatkan untuk mencegah penggunaan AI untuk tindakan kriminal dan berbahaya.

Pertanyaan Terkait

Q
Apa yang diungkapkan Eric Schmidt tentang AI?
A
Eric Schmidt memberikan peringatan bahwa AI sangat rentan dimanipulasi dan dapat diajarkan untuk melakukan kejahatan.
Q
Bagaimana AI bisa dimanipulasi menurut Schmidt?
A
Menurut Schmidt, AI dapat diretas untuk menghapus batasan keamanannya dan belajar hal-hal berbahaya.
Q
Apa itu metode jailbreaking dan injeksi prompt?
A
Jailbreaking adalah manipulasi respons AI agar tidak mematuhi aturan keselamatan, sedangkan injeksi prompt adalah cara untuk menyembunyikan instruksi jahat dalam input.
Q
Apa contoh konkret yang diberikan terkait penghindaran keamanan AI?
A
Contoh konkret adalah penciptaan 'kembaran' ChatGPT bernama DAN yang dapat memberikan jawaban tentang aktivitas ilegal.
Q
Mengapa penting untuk mencegah AI belajar melakukan kejahatan?
A
Penting untuk mencegah AI belajar melakukan kejahatan agar tidak menimbulkan risiko bagi masyarakat.