DeepSeek Ungkap Cara Filter Data Agar AI Minim Halusinasi dan Konten Negatif
Teknologi
Kecerdasan Buatan
03 Sep 2025
69 dibaca
2 menit

Rangkuman 15 Detik
DeepSeek berkomitmen untuk keamanan AI dan transparansi dalam pengumpulan data.
Perusahaan menggunakan metode pemfilteran untuk mengurangi konten yang tidak pantas dalam data pelatihan.
Tantangan 'hallucination' dalam AI masih menjadi perhatian utama, dan pengguna disarankan untuk tetap waspada.
DeepSeek merupakan startup kecerdasan buatan asal Hangzhou, China, yang baru-baru ini mengungkap bagaimana mereka menyaring data yang digunakan untuk melatih model AI-nya. Mereka menggunakan data yang terutama berasal dari informasi yang tersedia secara publik dan dari pihak ketiga yang mempunyai izin resmi. Hal ini menunjukkan komitmen mereka untuk tidak mengambil data pribadi secara tidak sah.
Untuk menjaga kualitas dan keamanan AI, DeepSeek memasang filter otomatis yang menghapus konten berisi ujaran kebencian, pornografi, kekerasan, spam, dan konten yang mungkin melanggar hak. Proses ini dilakukan secara berlapis agar model AI mereka tidak mengandung konten yang berbahaya atau merugikan pengguna.
Selain filter otomatis, DeepSeek menggunakan algoritma khusus dan juga tinjauan manusia untuk memeriksa adanya bias statistik yang bisa muncul dari data besar tersebut. Langkah ini penting untuk memastikan model tidak hanya akurat tapi juga adil dan sesuai nilai-nilai yang diharapkan penggunanya.
Meski begitu, DeepSeek mengakui bahwa fenomena halusinasi, yaitu kondisi dimana AI menghasilkan jawaban yang salah atau menyesatkan, masih menjadi masalah yang belum dapat sepenuhnya diatasi. Mereka menyarankan pengguna untuk selalu berhati-hati dan tidak menggantikan saran profesional dengan hasil AI.
Kejadian ini semakin penting di tengah pengawasan yang semakin ketat dari pemerintah China terhadap industri AI. Kampanye transparansi seperti yang dilakukan DeepSeek diharapkan bisa membantu pengguna lebih memahami risiko dan cara memanfaatkan teknologi AI dengan bijak.
Analisis Ahli
Yoshua Bengio
Penting bagi pengembang AI untuk transparan dalam praktik pengumpulan data dan penanganan bias, seperti yang dilakukan DeepSeek. Halusinasi dalam AI memang menjadi tantangan besar yang perlu kolaborasi riset untuk diminimalisir.Fei-Fei Li
Pendekatan yang menggabungkan filter otomatis dan review manusia adalah langkah positif, tapi edukasi pengguna juga sangat penting agar tidak mengandalkan sepenuhnya pada hasil AI yang terkadang keliru.

