Kontrol Militer atas AI: Kenapa Pentagon Batalkan Kontrak Anthropic dan Pilih OpenAI
Teknologi
Kecerdasan Buatan
07 Mar 2026
175 dibaca
1 menit

Rangkuman 15 Detik
Pentagon lebih memilih OpenAI setelah gagal dengan Anthropic.
Ada ketidakpastian tentang bagaimana AI seharusnya digunakan dalam konteks militer.
Startup perlu berhati-hati dalam mengejar kontrak federal terkait teknologi AI.
Pentagon memutuskan untuk menganggap Anthropic sebagai risiko rantai pasokan setelah gagal mencapai kesepakatan terkait kontrol militer atas model AI. Kontrak senilai 200 juta dolar yang sebelumnya diberikan kepada Anthropic akhirnya dibatalkan. DoD kemudian memutuskan untuk menyambut kerjasama dengan OpenAI sebagai gantinya.
Keputusan ini memicu peningkatan penghapusan aplikasi ChatGPT sebesar 295 persen, menunjukkan kecemasan masyarakat atas keterlibatan militer dengan AI tanpa batasan jelas. Perdebatan utama berpusat pada seberapa banyak kontrol yang harus diberikan militer atas penggunaan AI dalam senjata otonom dan pengawasan massal.
Situasi ini memunculkan pertanyaan besar tentang regulasi dan kebijakan AI di tingkat pemerintahan. Startup yang ingin mendapatkan kontrak pemerintah harus mempertimbangkan ketidakpastian dan risiko yang muncul akibat ketidaktahuan regulasi saat ini. Langkah selanjutnya diperkirakan akan berfokus pada penetapan batasan yang lebih jelas agar teknologi AI dapat digunakan dengan aman dan etis.
Analisis Ahli
Stuart Russell
Kontrol ketat atas AI militer sangat penting untuk mencegah eskalasi konflik dan potensi penyalahgunaan teknologi yang berdampak luas secara sosial dan politik.
