Pertarungan Anthropic dan Pentagon Soal Batas Penggunaan AI Militer
Courtesy of TheVerge

Pertarungan Anthropic dan Pentagon Soal Batas Penggunaan AI Militer

Membahas konflik prinsip antara Anthropic dan Departemen Pertahanan AS mengenai batasan etis penggunaan AI, khususnya dalam konteks senjata otonom dan pengawasan, serta implikasinya untuk kontrak, keamanan, dan industri AI secara luas.

24 Feb 2026, 18.00 WIB
190 dibaca
Share
Ikhtisar 15 Detik
  • Perdebatan antara Anthropic dan Departemen Pertahanan menunjukkan ketegangan antara inovasi teknologi dan etika penggunaan AI.
  • Kebijakan penggunaan yang ketat dari Anthropic dapat berpotensi menghalangi kerjasama dengan pemerintah meskipun teknologi mereka sangat dibutuhkan.
  • Ancaman dari Departemen Pertahanan untuk mengklasifikasikan Anthropic sebagai risiko rantai pasokan mencerminkan dinamika kekuatan antara perusahaan teknologi dan pemerintah.
Washington DC, Amerika Serikat - Anthropic, sebuah startup AI bernilai 380 miliar dolar, sedang berselisih dengan Departemen Pertahanan AS. Konflik ini berakar pada perbedaan pendapat soal bagaimana AI perusahaan tersebut boleh digunakan, terutama mengenai senjata otonom dan pengawasan massal dalam negeri. Anthropic menolak penggunaan teknologi mereka untuk operasi yang sepenuhnya tanpa campur tangan manusia.
Departemen Pertahanan mendesak agar kontrak-kontrak AI diubah dengan ketentuan 'any lawful use', yang memungkinkan penggunaan AI secara luas termasuk untuk tujuan militer agresif. Langkah ini memicu perdebatan besar karena dapat membuka jalan bagi penggunaan AI yang kontroversial, seperti senjata pembunuh otomatis tanpa pengawasan manusia.
Model AI utama Anthropic yang disebut Claude menjadi pusat perhatian karena merupakan satu-satunya yang diizinkan untuk menggunakan informasi rahasia di jaringan Pentagon. Jika Anthropic ditetapkan sebagai risiko rantai pasokan keamanan, maka berbagai perusahaan dan kontraktor yang bekerja dengan militer harus menghentikan penggunaan AI mereka, yang akan mengganggu banyak operasi.
Pentagon kini dipimpin oleh Emil Michael, yang dikenal sebagai negosiator keras dan sebelumnya menjadi eksekutif di Uber. Ia menegaskan bahwa tidak boleh ada batasan penggunaan AI oleh pemerintah, meskipun hal ini bertentangan dengan prinsip beretika yang diusung Anthropic. Konflik ini telah menarik perhatian luas dari industri teknologi dan pemerhati etika AI.
Sementara itu, perusahaan lain seperti OpenAI dan xAI sudah menyesuaikan kontrak mereka dengan kebijakan baru DoD, tetapi model mereka belum memiliki akses keamanan setinggi Claude. Hal ini menimbulkan risiko ketergantungan berlebihan pada Anthropic, sehingga negosiasi ini sangat penting bagi masa depan AI di sektor pertahanan dan implikasi etis yang menyertainya.
Referensi:
[1] https://theverge.com/ai-artificial-intelligence/883456/anthropic-pentagon-department-of-defense-negotiations

Analisis Ahli

Hamza Chaudhry
"Anthropic sudah menyesuaikan kebijakan mereka dengan arahan resmi DoD yang mengharuskan keterlibatan manusia dalam penggunaan kekuatan dan pembatasan surveilans domestik, dan pemerintah harus menghormati prinsip tersebut."
Geoffrey Gertz
"Langkah Pentagon membuat ancaman publik terhadap perusahaan AS sangat tidak biasa dan melampaui praktik regulasi biasa, menandakan ketegangan yang serius dalam kebijakan keamanan dan teknologi."

Analisis Kami

"Konflik ini mencerminkan ketegangan yang semakin meningkat antara kemajuan teknologi AI dan kepentingan etika serta hukum dalam penggunaannya, khususnya dalam konteks militer. Tanpa kesepakatan yang seimbang, baik inovasi teknologi maupun nilai-nilai demokrasi dapat terancam, sehingga dibutuhkan dialog yang lebih terbuka dan bertanggung jawab di antara semua pemangku kepentingan."

Prediksi Kami

Jika Anthropic tidak menyetujui ketentuan Pentagon, kemungkinan mereka akan kehilangan akses ke kontrak pertahanan penting dan berdampak serius pada posisi mereka sebagai penyedia utama AI untuk aplikasi militer, sementara Pentagon harus mencari alternatif yang saat ini belum memiliki kemampuan setara.

Pertanyaan Terkait

Q
Apa yang menjadi inti dari perdebatan antara Anthropic dan Departemen Pertahanan?
A
Perdebatan ini berfokus pada kebijakan penggunaan teknologi AI dan bagaimana teknologi tersebut dapat digunakan oleh pemerintah, terutama untuk tujuan militer.
Q
Mengapa Departemen Pertahanan mengancam untuk mengklasifikasikan Anthropic sebagai risiko rantai pasokan?
A
Departemen Pertahanan mengancam mengklasifikasikan Anthropic sebagai risiko rantai pasokan untuk menekan perusahaan agar mengubah kebijakan penggunaan mereka yang menghalangi penggunaan teknologi untuk pengawasan dan senjata otonom.
Q
Apa dua hal yang tidak disetujui oleh Anthropic dalam kebijakan penggunaan mereka?
A
Anthropic tidak setuju untuk mendukung operasi kinetik otonom dan pengawasan massal, karena khawatir akan melanggar kebebasan sipil.
Q
Siapa Emil Michael dan apa perannya dalam negosiasi ini?
A
Emil Michael adalah Kepala Teknologi di Departemen Pertahanan, yang berperan sebagai negosiator utama dalam upaya untuk mengubah kebijakan penggunaan AI.
Q
Apa pengaruh dari klasifikasi sebagai risiko rantai pasokan terhadap kontrak Anthropic dengan Departemen Pertahanan?
A
Jika Anthropic diklasifikasikan sebagai risiko rantai pasokan, kontrak mereka dengan Departemen Pertahanan akan berakhir dan semua kontraktor pertahanan harus menghapus teknologi Anthropic dari sistem mereka.