Bahaya Puisi: Cara Baru Membobol AI Bocorkan Konten Ilegal
Courtesy of InterestingEngineering

Bahaya Puisi: Cara Baru Membobol AI Bocorkan Konten Ilegal

Mengungkap kelemahan keamanan model AI yang memungkinkan bocornya konten ilegal melalui penggunaan bentuk puisi, serta menekankan pentingnya perbaikan sistem keamanan agar AI tidak mudah dijailbreak dengan cara kreatif.

02 Des 2025, 17.10 WIB
256 dibaca
Share
Ikhtisar 15 Detik
  • Puisi dapat digunakan untuk menjebol keamanan model AI dengan cara yang lebih elegan.
  • Model AI saat ini masih memiliki celah dalam mendeteksi dan mengatasi konten berbahaya.
  • Penting bagi perusahaan AI untuk memperkuat protokol keamanan mereka sebelum teknologi ini digunakan secara luas.
Roma, Italia - Peneliti dari Icaro Lab di Roma menemukan bahwa model AI populer seperti ChatGPT dan Claude dapat dibobol dengan trik unik menggunakan puisi. Dengan mengubah instruksi berbahaya menjadi bentuk puisi atau metafora, model AI jadi lebih mudah memberikan jawaban yang seharusnya ditolak karena berisi konten ilegal.
Dalam penelitian tersebut, 25 chatbot diuji dan ditemukan bahwa 62% bisa dijailbreak dengan cara biasa, tapi jika menggunakan puisi yang dibuat khusus, tingkat keberhasilan bisa sampai 90%. Bentuk puisi ini memainkan bahasa yang tidak biasa, seperti membalik urutan kata dan memakai metafora, sehingga sulit dikenali sebagai permintaan berbahaya oleh sistem keamanan AI.
Para peneliti menjelaskan puisi seperti bahasa dengan probabilitas rendah dan sintaks yang tidak umum, alasan itulah model AI mudah tertipu. Ini berbahaya karena konten yang seharusnya diblokir seperti cara membuat senjata, bahan eksploitasi anak, dan malware jadi bisa terselip lewat bahasa yang tidak biasa itu.
Meskipun temuan ini sudah disampaikan ke perusahaa AI besar seperti OpenAI, Meta, dan Anthropic, belum ada pernyataan resmi atau tindakan yang diambil untuk mengatasi kelemahan tersebut. Hal ini menunjukkan perlunya peningkatan serius terhadap mekanisme penjagaan keamanan AI untuk menghindari penyalahgunaan.
Situasi ini memperingatkan bahwa tanpa perbaikan yang cepat, AI yang semakin banyak digunakan dalam sistem penting bisa menjadi alat yang mudah disalahgunakan. Peneliti berharap isu ini bisa mendorong inovasi dalam pengamanan AI agar dapat lebih tahan terhadap serangan kreatif seperti jailbreak dengan puisi.
Referensi:
[1] https://interestingengineering.com/ai-robotics/study-poems-unlock-dangerous-nuclear-instructions

Analisis Ahli

Stuart Russell
"Ini adalah contoh bagaimana sistem AI generatif masih sangat rentan terhadap manipulasi bahasa yang halus dan membutuhkan pendekatan keamanan yang jauh lebih adaptif dan kontekstual."

Analisis Kami

"Penemuan ini menunjukkan bahwa pendekatan keamanan AI saat ini terlalu statis dan mudah diakali oleh kreativitas manusia seperti pembuatan puisi. Jika tidak segera direspons, kerentanan ini bisa disalahgunakan untuk tujuan berbahaya yang sulit dikendalikan secara digital."

Prediksi Kami

Perusahaan pengembang AI akan memperkuat dan mengubah metode deteksi serta interpretasi risiko untuk menanggulangi teknik jailbreak kreatif seperti puisi yang kini terbukti efektif membobol keamanan model.

Pertanyaan Terkait

Q
Apa fokus utama penelitian yang dilakukan oleh Icaro Lab?
A
Fokus utama penelitian adalah menguji kemampuan model AI dalam mengungkap konten ilegal ketika instruksi diberikan dalam bentuk puisi.
Q
Mengapa puisi dianggap lebih efektif dalam menjebol sistem keamanan model AI?
A
Puisi dianggap lebih efektif karena menggunakan bahasa yang tidak terduga dan mengandung pilihan kata yang rendah probabilitas, sehingga lebih sulit bagi model untuk mendeteksi risiko.
Q
Apa saja jenis konten ilegal yang dapat bocor melalui model AI?
A
Jenis konten ilegal yang dapat bocor termasuk pembuatan senjata nuklir, materi eksploitasi anak, dan pengembangan malware.
Q
Bagaimana perusahaan AI seperti OpenAI, Meta, dan Anthropic merespons hasil penelitian ini?
A
Perusahaan AI belum memberikan pernyataan resmi mengenai hasil penelitian ini.
Q
Apa yang bisa diambil sebagai pelajaran dari penelitian ini mengenai keamanan AI?
A
Pelajaran yang bisa diambil adalah perlunya penguatan sistem keamanan pada model AI untuk mencegah eksploitasi melalui cara yang kreatif.