Pomodo
HomeTeknologiBisnisSainsFinansial

Bahaya Shadow AI: Bagaimana Perusahaan Melindungi Data dari Alat AI Tak Resmi

Teknologi
Keamanan Siber
cyber-security (1y ago) cyber-security (1y ago)
05 Feb 2025
102 dibaca
1 menit
Bahaya Shadow AI: Bagaimana Perusahaan Melindungi Data dari Alat AI Tak Resmi
Tim IT perusahaan menyadari bahwa karyawan menggunakan alat AI tanpa persetujuan, dan mereka berusaha melindungi jaringan mereka. Fenomena ini dikenal sebagai "shadow AI," di mana karyawan menggunakan teknologi yang tidak disetujui, seperti aplikasi DeepSeek dari China, yang dapat membahayakan privasi dan keamanan data perusahaan. Misalnya, karyawan dapat menggunakan versi gratis DeepSeek untuk mengumpulkan memo internal atau menggunakan ChatGPT untuk bantuan pemrograman tanpa sepengetahuan tim IT. Menurut penelitian, 90% dari 67 alat AI generatif yang digunakan perusahaan tidak memiliki lisensi atau persetujuan yang tepat, dan 65% karyawan yang menggunakan ChatGPT mengandalkan versi gratis yang dapat membocorkan informasi perusahaan. Perusahaan kini lebih fokus pada pengaturan penggunaan AI daripada melarangnya secara total. Mereka berinvestasi dalam alat yang dapat mencegah kebocoran data dan mengontrol input. Cisco, misalnya, meluncurkan alat keamanan berbasis AI untuk menangani masalah shadow AI. Para ahli memperingatkan bahwa tantangan keamanan AI akan meluas ke perangkat mobile, karena semakin banyak karyawan menggunakan aplikasi AI di ponsel mereka. Dengan meningkatnya penggunaan model AI yang terkait dengan China, masalah shadow AI diperkirakan akan menjadi lebih rumit bagi tim IT di tahun ini.

Analisis Ahli

Itamar Golan
Menyoroti keberagaman dan banyaknya alat AI yang digunakan tanpa pengawasan, yang memperbesar risiko kebocoran data.
Shannon Murphy
Menekankan bahwa aplikasi AI pada dasarnya adalah aplikasi cloud yang bisa diawasi dengan sistem keamanan yang sudah ada.
Daniel Kendzior
Mengingatkan bahwa tantangan keamanan AI akan meluas ke perangkat mobile yang memerlukan pendekatan dan alat pengamanan baru.