Penggunaan AI dalam Peer Review ICLR 2026: Ancaman Integritas Ilmiah
Courtesy of NatureMagazine

Penggunaan AI dalam Peer Review ICLR 2026: Ancaman Integritas Ilmiah

Mengungkap dan mengatasi penggunaan AI yang tidak transparan dalam peer review untuk menjaga kepercayaan dalam proses akademik dan memastikan kualitas serta integritas ilmiah di konferensi machine learning terbesar.

27 Nov 2025, 07.00 WIB
115 dibaca
Share
Ikhtisar 15 Detik
  • Penggunaan AI dalam tinjauan sejawat semakin meningkat dan menimbulkan kekhawatiran di kalangan peneliti.
  • Pangram Labs menunjukkan bukti konkret mengenai tingginya proporsi ulasan yang dihasilkan oleh AI dalam konferensi ICLR 2026.
  • Penyelenggara konferensi berkomitmen untuk meningkatkan transparansi dan kepercayaan dalam proses tinjauan dengan menggunakan alat deteksi AI.
Rio de Janeiro , Brasil - Konferensi International Conference on Learning Representations (ICLR) 2026 menghadapi masalah besar terkait penggunaan kecerdasan buatan (AI) dalam proses peer review dan penilaian manuskrip. Banyak peneliti merasa curiga bahwa beberapa review yang mereka terima kemungkinan dihasilkan oleh chatbot atau model bahasa besar (LLM).
Graham Neubig, seorang peneliti AI di Carnegie Mellon University, menemukan review yang diduga AI-generated sangat panjang dan berisi permintaan analisis yang tidak biasa di bidang AI dan machine learning. Untuk membuktikan dugaan ini, ia menghubungi Pangram Labs, yang mengembangkan alat deteksi teks AI.
Pangram Labs kemudian melakukan analisa besar-besaran terhadap 19.490 studi dan 75.800 peer review yang masuk ke konferensi ICLR 2026. Hasilnya menunjukkan bahwa sekitar 21% dari peer review sepenuhnya dibuat oleh AI, dan lebih dari setengahnya mengandung tanda-tanda penggunaan AI. Beberapa manuskrip juga didapati menggunakan AI secara signifikan.
Para peneliti lain, seperti Desmond Elliott, mengonfirmasi kecurigaan mereka setelah melihat hasil deteksi ini. Review yang diberikan oleh AI seringkali memberikan evaluasi yang tidak tepat dan bahkan membingungkan penulis, seperti kesalahan dalam menyebutkan hasil numerik.
Untuk menjaga kepercayaan dan integritas dalam proses akademik, penyelenggara konferensi berencana menggunakan alat deteksi AI secara otomatis pada masa depan. Mereka juga akan meninjau kembali kebijakan penggunaan AI agar kualitas peer review dan manuskrip tetap terjaga.
Referensi:
[1] https://nature.com/articles/d41586-025-03506-6

Analisis Ahli

Graham Neubig
"Peer review yang dihasilkan oleh AI cenderung verbose dan tidak relevan, sehingga mengurangi kualitas penilaian akademik."
Bharath Hariharan
"Ini adalah tantangan baru untuk komunitas akademik yang harus diatasi untuk menjaga kepercayaan dalam proses peer review."
Desmond Elliott
"AI-generated review bisa memberikan penilaian yang salah dan membingungkan, sangat merugikan penulis."

Analisis Kami

"Penggunaan AI dalam peer review yang tidak diawasi akan merusak kredibilitas proses ilmiah dan menyulitkan penilaian objektif karya. Penyelenggara konferensi harus segera mengadopsi teknologi deteksi dan menetapkan pedoman jelas agar integritas peer review tetap terjaga."

Prediksi Kami

Ke depannya, konferensi dan jurnal ilmiah besar kemungkinan akan menerapkan regulasi yang lebih ketat dan menggunakan alat deteksi AI secara rutin untuk memastikan keaslian dan kualitas peer review serta manuskrip.

Pertanyaan Terkait

Q
Apa yang dilakukan Graham Neubig terkait tinjauan sejawat yang mencurigakan?
A
Graham Neubig meminta bantuan untuk memverifikasi apakah ulasan yang diterimanya dihasilkan oleh AI dan menawarkan hadiah untuk hasilnya.
Q
Berapa persen ulasan di ICLR 2026 yang dihasilkan sepenuhnya oleh AI?
A
Sekitar 21% dari ulasan di ICLR 2026 ditemukan sepenuhnya dihasilkan oleh AI.
Q
Apa tanggapan Pangram Labs terhadap analisis mereka?
A
Pangram Labs menemukan bukti tentang penggunaan AI dalam banyak ulasan dan manuskrip, yang telah dipublikasikan secara online.
Q
Apa yang dialami Desmond Elliott terkait dengan ulasan yang ia terima?
A
Desmond Elliott merasa frustrasi karena salah satu ulasan yang ia terima tampak tidak akurat dan dihasilkan oleh AI.
Q
Apa langkah yang diambil oleh penyelenggara ICLR 2026 setelah menemukan masalah ini?
A
Penyelenggara ICLR 2026 akan menggunakan alat otomatis untuk menilai apakah ada pelanggaran kebijakan terkait penggunaan AI dalam pengiriman dan ulasan.