Cara Baru Menyembunyikan Watermark di Video dengan Cahaya rahasia
Teknologi
Keamanan Siber
13 Agt 2025
62 dibaca
2 menit

Rangkuman 15 Detik
Kepercayaan terhadap video sebagai sumber kebenaran telah berkurang akibat kemajuan teknologi deepfake.
Metode watermark yang dikembangkan dapat membantu dalam verifikasi keaslian video dan deteksi manipulasi.
Tantangan dalam mendeteksi deepfake akan semakin meningkat seiring berkembangnya teknologi AI dan alat manipulasi.
Kenaikan penggunaan teknologi AI generatif membuat pembuatan video palsu atau deepfake menjadi sangat mudah dan cepat. Hal ini menyebabkan video yang dulu dianggap sumber fakta kini penuh keraguan karena kemampuannya dimanipulasi untuk menampilkan kejadian yang tidak benar.
Untuk mengatasi masalah ini, para peneliti dari Cornell mengembangkan metode baru dengan menyisipkan watermark pada video melalui perubahan cahaya yang sangat halus saat proses pengambilan gambar. Watermark ini berbentuk kode rahasia yang tidak terlihat oleh mata manusia.
Sumber cahaya seperti layar komputer, lampu fotografi, dan lampu ruangan dilengkapi chip kecil yang mengatur perubahan intensitas cahaya secara tidak mencolok, sehingga menciptakan kode rahasia yang dapat digunakan untuk verifikasi keaslian video tersebut.
Jika video diedit atau dimanipulasi, bagian yang diubah biasanya akan terlihat gelap atau tidak sinkron dengan pola kode cahaya asli ketika dianalisis kembali menggunakan metode khusus. Penggunaan beberapa kode cahaya di tempat yang sama membuat pemalsuan semakin sulit.
Meski metode ini sudah berhasil di beberapa kondisi termasuk luar ruangan dan pada beragam kulit manusia, tantangan terkait penerapan luas dan evolusi teknologi deepfake terus ada. Ini menandai perlunya pengembangan dan inovasi yang berkelanjutan untuk menjaga kepercayaan pada media video.
Analisis Ahli
Abe Davis
Pendekatan penyisipan kode cahaya memberikan lapisan keamanan baru yang membuat manipulasi video jauh lebih sulit dan terdeteksi, tetapi ini hanyalah salah satu bagian dari solusi lebih luas menghadapi ancaman deepfake.

