Perusahaan AI Terbesar Kini Terjun ke Militer, Bahayakah untuk Dunia?
Teknologi
Kecerdasan Buatan
25 Sep 2025
132 dibaca
2 menit

Rangkuman 15 Detik
Perusahaan AI besar seperti OpenAI dan Anthropic beralih ke aplikasi militer, menandakan perubahan besar dalam fokus industri.
Ada kekhawatiran tentang keamanan dan penggunaan etis AI dalam konteks senjata otonom.
Kolaborasi antara perusahaan teknologi dan pemerintah menunjukkan tantangan baru terkait regulasi dan tanggung jawab di bidang AI.
Industri kecerdasan buatan (AI) yang dahulu sangat menekankan pada keselamatan dan etika kini mulai berubah arah dengan mengembangkan teknologi untuk kepentingan militer. Perubahan ini diawali oleh pelonggaran aturan penggunaan AI oleh perusahaan besar seperti OpenAI, yang menghapus larangan pemanfaatan AI untuk militer dalam ketentuan mereka yang terbaru.
OpenAI sendiri telah menandatangani kontrak besar dengan Departemen Pertahanan Amerika Serikat dan perusahaan pembuat senjata otonom Anduril. Selain itu, Anthropic dan Palantir, dua pemain utama lainnya di dunia AI, juga berkolaborasi untuk memasarkan AI bagi kepentingan pertahanan dan intelijen dengan nilai kontrak yang mencapai ratusan juta dolar.
Selain itu, perusahaan teknologi raksasa lainnya seperti Amazon, Google, dan Microsoft juga mulai menawarkan produk AI mereka untuk keperluan militer dan intelijen. Hal ini terjadi meskipun ada protes keras dari karyawan serta aktivis yang menentang integrasi teknologi AI dalam bidang militer.
Heidy Khlaaf, chief AI scientist di AI Now Institute dan pakar keselamatan AI, memperingatkan bahwa perusahaan-perusahaan ini tampak kurang waspada dalam melakukan penerapan AI generatif di situasi berisiko tinggi. Mereka dinilai terlalu berani dan kurang mempertimbangkan konsekuensi etika serta keselamatan jangka panjang.
Selain risiko terkait senjata otonom, muncul kekhawatiran bahwa teknologi AI bisa disalahgunakan oleh aktor jahat untuk mengembangkan senjata kimia, biologi, radiologis, dan nuklir, yang akan membawa ancaman besar terhadap keamanan global di masa depan.
Analisis Ahli
Heidy Khlaaf
Perusahaan AI harus berhati-hati dan bertanggung jawab dalam mengembangkan teknologi mereka, terutama yang digunakan dalam senjata otonom, karena konsekuensi keselamatan dan etika yang sangat berat.Nilay Patel
Perubahan sikap perusahaan AI terhadap proyek militer menunjukkan bahwa tekanan ekonomi dan politik dapat mengalahkan komitmen awal terhadap etika dan keselamatan AI.

