
Seiring teknologi AI berkembang pesat, membuat konten palsu jadi semakin mudah dan hampir tidak bisa dibedakan dengan konten asli. Hal ini mengancam cara kerja media sosial dan kreator yang bergantung pada keaslian dan kepercayaan pengguna. Instagram dan platform lain mencoba menggunakan sistem bernama C2PA untuk menandai konten asli, tapi penerapannya masih belum maksimal dan sulit ditemukan oleh pengguna biasa.
C2PA itu sendiri adalah standar untuk melacak asal usul dan keaslian foto, video, atau audio dengan metadata tersembunyi. Teknologi ini didukung oleh banyak perusahaan teknologi besar, tapi masih belum diterima luas oleh banyak produsen kamera dan platform media sosial. Selain itu, metadata tersebut bisa dihapus atau dihilangkan dengan mudah, sehingga tidak bisa menjadi solusi utama untuk melindungi dari deepfake atau konten AI palsu.
Meta dan Instagram bahkan menggunakan label AI pada konten yang dianggap palsu, tapi penempatannya sangat tersembunyi dan tidak konsisten, sehingga pengguna tetap kesulitan mempercayai keaslian konten yang mereka lihat. Selain itu, platform populer seperti X (dulu Twitter) telah keluar dari inisiatif C2PA, sehingga mempersulit perlindungan autentikasi pada konten yang sangat cepat menyebar di sana.
Di sisi lain, perusahaan pembuat AI masih terus meluncurkan alat-alat generatif baru yang malah semakin banyak membuat konten 'slop' atau sampah AI. Mereka mengambil keuntungan dari konten ini untuk meningkatkan engagement dan pendapatan iklan, menciptakan konflik kepentingan antara menjaga keaslian dan mengembangkan teknologi yang memperburuk penyebaran misinformasi.
Karena itu, meskipun teknologi seperti C2PA adalah langkah penting, masih jauh dari cukup dan butuh pendekatan yang lebih komprehensif, termasuk mendekati siapa yang membuat konten ketimbang hanya konten itu sendiri. Jika tidak, risiko misinformasi dan erosi kepercayaan publik pada media digital akan meningkat semakin besar ke depannya.