AI summary
Character.AI mengambil langkah untuk melindungi remaja dengan membatasi interaksi chatbot. Perubahan ini mungkin akan menyebabkan kehilangan pengguna, tetapi dianggap perlu untuk keselamatan. Regulasi mengenai chatbot AI semakin diperlukan untuk melindungi anak-anak dari dampak negatif. Remaja saat ini hidup di dunia yang cepat berubah dengan banyak tantangan emosional dan stimulasi digital yang berlebih. AI chatbot yang selalu siap berbicara ternyata menimbulkan masalah serius, bahkan ada kasus bunuh diri yang dikaitkan dengan obrolan berkepanjangan dengan AI. Maka dari itu, perusahaan AI seperti Character.AI mulai mengambil tindakan untuk melindungi penggunanya yang masih di bawah 18 tahun.Character.AI memutuskan untuk menghapus fitur obrolan terbuka bagi pengguna di bawah umur. Mereka mengganti pengalaman ini dengan fitur yang mendorong kreativitas seperti membuat cerita, animasi video, dan bermain peran dengan karakter AI. Perubahan ini dilakukan secara bertahap mulai 25 November untuk memastikan keamanan dan mengurangi risiko negatif dari interaksi yang tidak terkendali.Untuk memastikan pembatasan ini berjalan efektif, Character.AI menggunakan alat verifikasi usia yang melibatkan pengecekan perilaku pengguna, serta teknologi pengenalan wajah dan dokumen identitas jika diperlukan. Selain itu, mereka juga sudah menerapkan fitur seperti filter konten, batas waktu penggunaan, dan pengawasan orang tua untuk meningkatkan proteksi pengguna muda.Langkah yang diambil Character.AI muncul sebelum regulasi pemerintah yang mulai diterapkan untuk mengontrol AI chatbot bagi anak-anak dan remaja. Beberapa senator di Amerika Serikat bahkan berencana membuat undang-undang khusus untuk melarang chatbot AI sebagai teman untuk anak di bawah umur, didukung oleh keluhan atas dampak negatif yang sudah terjadi.Selain perubahan pada platform, Character.AI juga mendirikan AI Safety Lab untuk fokus mengembangkan teknologi AI yang lebih aman. Mereka berharap pendekatan mereka bisa menjadi contoh industri agar AI dapat berkembang secara bertanggung jawab dan mendukung kreativitas tanpa membahayakan kesehatan mental pengguna muda.
Karandeep Anand mengambil langkah berani dengan membatasi obrolan terbuka untuk remaja, ini adalah contoh tanggung jawab sosial yang harus diikuti oleh perusahaan AI lain demi mencegah dampak psikologis negatif. Namun, potensi kehilangan pengguna muda dapat menjadi tantangan besar bagi startup tersebut, sehingga inovasi pada fitur kreatif harus cepat dan menarik demi mempertahankan basis pengguna.