Sam Altman Bela Anthropic, Tolak AI Digunakan Bebas Oleh Pentagon
Courtesy of InterestingEngineering

Sam Altman Bela Anthropic, Tolak AI Digunakan Bebas Oleh Pentagon

Menjelaskan ketegangan antara Anthropic dan Pentagon mengenai penggunaan AI untuk aplikasi militer dan bagaimana Sam Altman berupaya melindungi prinsip keamanan AI sekaligus menghindari preseden negatif untuk seluruh industri AI.

28 Feb 2026, 19.35 WIB
285 dibaca
Share
Ikhtisar 15 Detik
  • Permintaan Departemen Pertahanan dapat mempengaruhi penggunaan model kecerdasan buatan dalam konteks militer.
  • Dukungan Sam Altman untuk Anthropic menunjukkan solidaritas di antara perusahaan AI dalam menghadapi tantangan dari pemerintah.
  • Situasi ini menyoroti pentingnya menetapkan batasan dalam penggunaan teknologi kecerdasan buatan yang dapat membahayakan keselamatan publik.
Washington, Amerika Serikat - Pentagon menuntut Anthropic untuk mengizinkan penggunaan AI mereka untuk semua tujuan yang sah, menimbulkan kekhawatiran soal keamanan dan etika penggunaan teknologi militer.
Anthropic khawatir AI mereka bisa dipakai untuk senjata otonom atau pengawasan massal, sementara penolakan dapat mengancam kontrak senilai 200 juta USD dan label risiko dari pemerintah.
Sam Altman dari OpenAI mendukung Anthropic, menawarkan solusi agar AI dapat digunakan dalam operasi rahasia tanpa mengorbankan prinsip keselamatan, dan memperingatkan risiko preseden buruk untuk industri AI.
Referensi:
[1] https://www.interestingengineering.com/innovation/openai-proposes-framework-for-us-military-ai

Analisis Ahli

Sam Altman
"Menegaskan bahwa pihak perusahaan harus memiliki redlines yang jelas dalam kerjasama dengan pemerintah untuk melindungi keselamatan dan integritas penggunaan AI."
Demis Hassabis
"Sebagai CEO DeepMind, kemungkinan akan menekankan pentingnya regulasi etis dan kolaborasi transparan antara AI dan pemerintah demi keamanan global."

Analisis Kami

"Ini adalah momen kritis dimana perusahaan AI harus mempertahankan integritas moral dan teknis mereka di tengah tekanan politik dan militer yang besar. Jika guardrail keselamatan dilanggar demi kepentingan militer, maka risiko penyalahgunaan AI bisa meningkat drastis dan merusak kepercayaan publik terhadap teknologi ini."

Prediksi Kami

Konflik ini dapat memicu perdebatan lebih luas mengenai kendali dan etika penggunaan AI militer, serta kemungkinan regulasi lebih ketat atau campur tangan pemerintah menggunakan hukum seperti Defense Production Act.

Pertanyaan Terkait

Q
Apa yang diminta oleh Departemen Pertahanan kepada Anthropic?
A
Departemen Pertahanan meminta Anthropic untuk memperbolehkan penggunaan model AI mereka untuk 'semua penggunaan yang sah'.
Q
Mengapa Sam Altman mendukung Anthropic?
A
Sam Altman mendukung Anthropic karena dia percaya bahwa mereka peduli terhadap keselamatan dan permasalahan ini dapat mempengaruhi seluruh industri AI.
Q
Apa risiko yang dihadapi Anthropic jika tidak mematuhi permintaan tersebut?
A
Risiko yang dihadapi Anthropic termasuk kehilangan kontrak senilai $200 juta dan mungkin dianggap sebagai 'risiko rantai pasokan'.
Q
Apa yang diusulkan oleh OpenAI kepada Departemen Pertahanan?
A
OpenAI mengusulkan cara untuk menggunakan model mereka dalam lingkungan terklasifikasi yang sesuai dengan prinsip-prinsip mereka.
Q
Mengapa situasi ini penting untuk industri kecerdasan buatan secara keseluruhan?
A
Situasi ini penting karena dapat menentukan hubungan antara Silicon Valley dan pemerintah, serta bagaimana AI militer akan dibangun dan diterapkan.