Courtesy of TechCrunch
Ikhtisar 15 Detik
- OpenAI sedang berusaha untuk memahami dan mengurangi risiko yang terkait dengan persuasi menggunakan AI.
- Model penelitian mendalam menunjukkan kemampuan persuasi yang lebih baik dibandingkan model lain, tetapi masih ada batasan.
- Penyebaran informasi menyesatkan melalui teknologi AI, seperti deepfake, menjadi perhatian serius dalam konteks politik.
OpenAI mengumumkan bahwa mereka tidak akan membawa model AI yang digunakan untuk penelitian mendalam ke dalam API pengembangnya, karena mereka sedang mempertimbangkan risiko yang mungkin ditimbulkan oleh AI dalam mempengaruhi orang untuk mengubah keyakinan mereka. Dalam sebuah dokumen yang diterbitkan, OpenAI menjelaskan bahwa mereka sedang memperbaiki cara untuk menguji model-modelnya terkait risiko persuasi di dunia nyata, seperti penyebaran informasi yang menyesatkan. Meskipun model ini tidak cocok untuk kampanye disinformasi karena biaya komputasi yang tinggi dan kecepatan yang lambat, OpenAI tetap ingin mengeksplorasi bagaimana AI dapat mempersonalisasi konten yang berpotensi berbahaya sebelum memperkenalkan model ini ke API.
Dalam pengujian, model penelitian mendalam menunjukkan kemampuan persuasif yang lebih baik dibandingkan model-model OpenAI lainnya, meskipun tidak lebih baik dari manusia. Model ini juga berhasil meyakinkan model lain untuk melakukan pembayaran, tetapi tidak selalu berhasil dalam semua tes. OpenAI mencatat bahwa hasil pengujian ini mungkin hanya mencerminkan batas bawah dari kemampuan model tersebut, dan ada kemungkinan bahwa dengan perbaikan lebih lanjut, kinerjanya bisa meningkat.
Pertanyaan Terkait
Q
Apa yang sedang dilakukan OpenAI terkait model penelitian mendalam?A
OpenAI sedang merevisi metode mereka untuk menilai risiko persuasi model AI, termasuk risiko penyebaran informasi menyesatkan.Q
Mengapa OpenAI tidak membawa model ini ke API mereka?A
OpenAI tidak membawa model ini ke API mereka karena mereka ingin memahami risiko persuasi yang lebih baik.Q
Apa risiko yang terkait dengan penggunaan AI dalam persuasi?A
Risiko terkait penggunaan AI dalam persuasi termasuk penyebaran informasi yang menyesatkan dan potensi untuk mempengaruhi keyakinan orang.Q
Apa yang terjadi di Taiwan terkait dengan deepfake?A
Di Taiwan, sebuah kelompok yang terkait dengan Partai Komunis Tiongkok menyebarkan audio deepfake yang menyesatkan pada hari pemilihan.Q
Bagaimana hasil pengujian model penelitian mendalam dibandingkan dengan model lain?A
Hasil pengujian menunjukkan bahwa model penelitian mendalam lebih baik dalam persuasi dibandingkan model OpenAI lainnya, tetapi tidak lebih baik dari manusia.