Courtesy of TechCrunch
Data Rahasia Bocor di AI Microsoft Copilot Karena Cache GitHub yang Pernah Publik
26 Feb 2025, 17.02 WIB
304 dibaca
Share
Ikhtisar 15 Detik
- Data yang pernah dipublikasikan di GitHub dapat tetap diakses melalui alat seperti Copilot meskipun telah diubah menjadi privat.
- Perusahaan besar seperti Microsoft dan Google terpengaruh oleh masalah kebocoran data ini.
- Pentingnya mengelola dan melindungi data sensitif di platform publik untuk mencegah akses yang tidak sah.
Peneliti keamanan memperingatkan bahwa data yang pernah dipublikasikan di internet, meskipun hanya sebentar, dapat tetap muncul di chatbot AI generatif seperti Microsoft Copilot. Sebuah perusahaan keamanan siber bernama Lasso menemukan bahwa banyak repositori GitHub dari perusahaan besar, termasuk Microsoft, masih memiliki data yang dapat diakses melalui Copilot, meskipun repositori tersebut sudah diubah menjadi privat. Lasso menemukan lebih dari 20.000 repositori GitHub yang pernah publik dan kini sudah dihapus atau diubah menjadi privat, yang masih dapat diakses oleh Copilot, berpotensi mengungkapkan informasi sensitif seperti kunci akses dan data perusahaan.
Lasso telah menghubungi perusahaan-perusahaan yang terkena dampak dan menyarankan mereka untuk mengganti kunci yang mungkin telah terkompromi. Meskipun Microsoft menganggap masalah ini sebagai "rendah" dan telah menonaktifkan fitur caching di Bing, Lasso menunjukkan bahwa data tersebut masih dapat diakses oleh Copilot, yang menunjukkan bahwa masalah ini belum sepenuhnya teratasi.
Referensi:
[1] https://techcrunch.com/2025/02/26/thousands-of-exposed-github-repos-now-private-can-still-be-accessed-through-copilot/
[1] https://techcrunch.com/2025/02/26/thousands-of-exposed-github-repos-now-private-can-still-be-accessed-through-copilot/
Analisis Ahli
Bruce Schneier
"Ini adalah contoh klasik bagaimana sistem yang dirancang untuk kemudahan pengguna bisa membuka celah serius dalam keamanan data jika tidak dikontrol dengan ketat."
Analisis Kami
"Kebijakan Microsoft yang menganggap caching ini sebagai masalah dengan tingkat keparahan rendah sangat berisiko dan menunjukkan kurangnya prioritas pada keamanan data. Perusahaan harus segera mengimplementasikan kontrol dan transparansi lebih baik agar potensi kebocoran data melalui AI seperti Copilot tidak terus berlangsung tanpa solusi permanen."
Prediksi Kami
Isu kebocoran data melalui AI generatif semakin banyak ditemukan, memaksa perusahaan dan pengembang untuk meninjau ulang kebijakan keamanan serta implementasi teknologi AI secara ketat demi mencegah eksposur data sensitif di masa depan.
Pertanyaan Terkait
Q
Apa yang ditemukan oleh Lasso terkait dengan data GitHub?A
Lasso menemukan bahwa data dari repositori GitHub yang pernah publik dapat diakses melalui Microsoft Copilot meskipun repositori tersebut telah diubah menjadi privat.Q
Mengapa data yang pernah publik masih dapat diakses melalui Copilot?A
Data yang pernah publik masih dapat diakses melalui Copilot karena diindeks dan disimpan dalam cache oleh mesin pencari Bing milik Microsoft.Q
Siapa saja perusahaan yang terpengaruh oleh masalah ini?A
Perusahaan yang terpengaruh termasuk Amazon Web Services, Google, IBM, PayPal, Tencent, dan Microsoft sendiri.Q
Apa tindakan yang diambil oleh Lasso setelah menemukan masalah ini?A
Lasso menghubungi semua perusahaan yang terpengaruh dan menyarankan mereka untuk mengganti atau mencabut kunci yang terkompromi.Q
Bagaimana respons Microsoft terhadap temuan Lasso?A
Microsoft mengklasifikasikan masalah ini sebagai 'rendah' dan menyatakan bahwa perilaku caching tersebut dapat diterima, meskipun mereka telah menonaktifkan fitur caching.