Tim IT perusahaan menyadari bahwa karyawan menggunakan alat AI tanpa persetujuan, dan mereka berusaha melindungi jaringan mereka. Fenomena ini dikenal sebagai "shadow AI," di mana karyawan menggunakan teknologi yang tidak disetujui, seperti aplikasi DeepSeek dari China, yang dapat membahayakan privasi dan keamanan data perusahaan. Misalnya, karyawan dapat menggunakan versi gratis DeepSeek untuk mengumpulkan memo internal atau menggunakan ChatGPT untuk bantuan pemrograman tanpa sepengetahuan tim IT. Menurut penelitian, 90% dari 67 alat AI generatif yang digunakan perusahaan tidak memiliki lisensi atau persetujuan yang tepat, dan 65% karyawan yang menggunakan ChatGPT mengandalkan versi gratis yang dapat membocorkan informasi perusahaan.Perusahaan kini lebih fokus pada pengaturan penggunaan AI daripada melarangnya secara total. Mereka berinvestasi dalam alat yang dapat mencegah kebocoran data dan mengontrol input. Cisco, misalnya, meluncurkan alat keamanan berbasis AI untuk menangani masalah shadow AI. Para ahli memperingatkan bahwa tantangan keamanan AI akan meluas ke perangkat mobile, karena semakin banyak karyawan menggunakan aplikasi AI di ponsel mereka. Dengan meningkatnya penggunaan model AI yang terkait dengan China, masalah shadow AI diperkirakan akan menjadi lebih rumit bagi tim IT di tahun ini.
Shadow AI merupakan ancaman serius yang harus direspons lewat pendekatan pengelolaan risiko yang holistik, bukan sekadar pelarangan yang tidak efektif. Integrasi alat keamanan AI seperti yang dikembangkan Cisco adalah langkah penting, tapi perusahaan juga perlu mengedukasi karyawan agar sadar betapa pentingnya menjaga data perusahaan dari potensi kebocoran yang tidak disengaja.