Anthropic Wajibkan Pengguna Pilih Data untuk Latih AI, Apa Artinya?
Teknologi
Kecerdasan Buatan
29 Agt 2025
124 dibaca
2 menit

Rangkuman 15 Detik
Anthropic mulai menggunakan data percakapan pengguna untuk pelatihan AI, yang berdampak pada privasi pengguna.
Pengguna harus lebih waspada terhadap perubahan kebijakan yang bisa memengaruhi data pribadi mereka.
FTC mengawasi praktik perusahaan AI terkait transparansi kebijakan dan privasi penggunanya.
Anthropic, perusahaan AI di Amerika Serikat, mengupdate kebijakan mereka tentang penggunaan data pengguna dengan meminta semua pengguna Claude untuk memutuskan sebelum 28 September apakah percakapan mereka boleh digunakan untuk melatih model AI. Sebelumnya, data obrolan pengguna secara otomatis dihapus dalam 30 hari dan tidak dipakai untuk pelatihan model, tapi sekarang data dapat disimpan hingga lima tahun bila pengguna tidak memilih untuk keluar.
Perubahan ini hanya berlaku untuk konsumen umum seperti pengguna Claude Free, Pro, Max, dan Claude Code. Pengguna bisnis seperti yang memakai Claude Gov, Work, Education, atau API tidak terpengaruh. Hal ini mirip dengan kebijakan dari kompetitor seperti OpenAI yang memisahkan perlakuan data pengguna individu dan perusahaan demi menjaga privasi bisnis.
Anthropic menyatakan bahwa tujuan perubahan ini adalah agar pengguna bisa berkontribusi dalam meningkatkan keselamatan model AI dan membuat kemampuan AI seperti coding dan analisis lebih baik. Namun, kenyataan bahwa perusahaan membutuhkan data besar agar bisa bersaing dengan pemain besar lain juga menjadi alasan penting di balik kebijakan baru ini.
Pengguna lama mendapat pemberitahuan dengan tombol 'Accept' yang besar dan toggle kecil yang sudah aktif secara default untuk memberi izin pelatihan data, sehingga berpotensi membuat banyak pengguna setuju tanpa sadar. Ini menjadi perhatian banyak pakar privasi karena desain persetujuan seperti ini bisa membuat konsen yang diberikan tidak benar-benar sadar atau 'meaningful'.
Perubahan kebijakan ini terjadi di tengah meningkatnya tekanan regulasi di AS, dengan FTC yang memperingatkan perusahaan teknologi agar tidak menyembunyikan perubahan terkait privasi di balik bahasa hukum yang rumit atau tulisan kecil. Masa depan akan menguji bagaimana Anthropic dan perusahaan AI lain menjaga keseimbangan antara inovasi teknologi dan perlindungan privasi pengguna.
Analisis Ahli
Helen Nissenbaum
Perubahan kebijakan yang tidak transparan ini menggarisbawahi pentingnya 'meaningful consent' dalam teknologi AI agar privasi pengguna tidak terusik tanpa mereka sadari.Bruce Schneier
Industri AI harus seimbang antara kebutuhan data dan hak privasi; desain persetujuan yang memanipulasi pengguna dapat memperburuk reputasi perusahaan dan memicu regulasi lebih ketat.