Ketegangan Antara Anthropic dan OpenAI Soal Kontrak AI dengan Militer AS
Courtesy of TechCrunch

Ketegangan Antara Anthropic dan OpenAI Soal Kontrak AI dengan Militer AS

Mengungkap ketegangan dan perbedaan etika antara Anthropic dan OpenAI terhadap kontrak AI dengan Departemen Pertahanan AS agar pembaca mengerti risiko dan dinamika dalam penerapan teknologi AI dalam bidang militer.

05 Mar 2026, 05.40 WIB
72 dibaca
Share
Ikhtisar 15 Detik
  • Anthropic menolak untuk menandatangani kontrak dengan DOD tanpa jaminan keamanan yang jelas.
  • OpenAI menghadapi kritik dan skeptisisme publik terkait perjanjiannya dengan DOD.
  • Kedua perusahaan memiliki pendekatan yang berbeda dalam menangani etika dan keamanan dalam pengembangan teknologi AI.
Amerika Serikat - Anthropic menolak kontrak dengan Departemen Pertahanan Amerika Serikat karena tidak ingin teknologi AI mereka digunakan tanpa batas untuk pengawasan massal atau senjata otonom. Dario Amodei mengkritik OpenAI yang menerima kontrak serupa dengan alasan hanya ingin memuaskan karyawan mereka.
OpenAI mengklaim kontrak mereka melarang penggunaan AI untuk pengawasan domestik massal dan hanya diizinkan untuk semua tujuan legal, namun kritik muncul karena hukum bisa berubah. Anthropic menuntut jaminan tegas agar AI mereka tidak disalahgunakan, sementara OpenAI dianggap melakukan spin untuk membenarkan kontraknya.
Publik merespons negatif terhadap kontrak OpenAI dengan lonjakan penghapusan aplikasi ChatGPT. Ketegangan ini menunjukkan perdebatan etis penting di bidang AI dan militer, dengan risiko mempengaruhi opini karyawan dan publik secara luas.
Referensi:
[1] https://techcrunch.com/2026/03/04/anthropic-ceo-dario-amodei-calls-openais-messaging-around-military-deal-straight-up-lies-report-says/

Analisis Ahli

Stuart Russell
"Ethics in AI deployment especially in the military sector is paramount, and Anthropic's stance highlights a critical need for transparent governance to prevent misuse."
Kate Crawford
"The controversy illustrates systemic problems in AI policy-making where corporate interests and public safety often clash, emphasizing the importance of accountability in AI development."

Analisis Kami

"Ketegangan ini mencerminkan dilema moral yang mendalam dalam pengembangan AI untuk aplikasi militer, di mana perusahaan harus memilih antara keuntungan finansial dan etika penggunaan teknologi. Pernyataan Amodei menunjukkan bahwa risiko penyalahgunaan AI masih menjadi masalah serius yang perlu dikawal dengan ketat agar teknologi tidak merugikan masyarakat."

Prediksi Kami

Ketegangan antara perusahaan AI dan pemerintah terkait penggunaan teknologi untuk kepentingan militer diperkirakan akan meningkat, dengan kemungkinan lebih banyak perusahaan AI menolak kontrak yang dianggap mengancam etika dan privasi.

Pertanyaan Terkait

Q
Mengapa Dario Amodei tidak setuju dengan keputusan OpenAI?
A
Dario Amodei tidak setuju dengan keputusan OpenAI karena mereka merasa OpenAI lebih fokus untuk menyenangkan karyawan daripada mencegah penyalahgunaan.
Q
Apa yang menjadi perhatian utama Anthropic dalam negosiasi dengan DOD?
A
Perhatian utama Anthropic adalah memastikan bahwa teknologi mereka tidak akan digunakan untuk pengawasan domestik atau senjata otonom.
Q
Apa yang dimaksud dengan 'safety theater' dalam konteks artikel ini?
A
'Safety theater' merujuk pada tindakan yang terlihat aman tetapi sebenarnya tidak menjamin perlindungan yang efektif.
Q
Bagaimana reaksi publik terhadap perjanjian OpenAI dengan DOD?
A
Reaksi publik terhadap perjanjian OpenAI dengan DOD cukup negatif, dengan lonjakan penghapusan aplikasi ChatGPT setelah pengumuman tersebut.
Q
Apa yang dianggap sebagai potensi risiko dari penggunaan teknologi AI oleh DOD?
A
Risiko potensial dari penggunaan teknologi AI oleh DOD termasuk kemungkinan perubahan hukum yang dapat mengizinkan penggunaan untuk tujuan yang sebelumnya dianggap ilegal.