Sengketa Politik dan AI: Anthropic Diblokir Pemerintah AS Karena Tak Dukung Trump
Courtesy of CNBCIndonesia

Sengketa Politik dan AI: Anthropic Diblokir Pemerintah AS Karena Tak Dukung Trump

Mengungkap kontroversi di balik pelabelan risiko rantai pasok produk AI Anthropic yang berujung pada larangan penggunaannya oleh pemerintah AS dan menyoroti interaksi politik serta persaingan perusahaan AI terkait proyek pertahanan militer.

06 Mar 2026, 20.40 WIB
138 dibaca
Share
Ikhtisar 15 Detik
  • Dario Amodei menuduh pemerintah AS memblokir Anthropic karena ketidakberpihakan politik.
  • OpenAI mengambil keuntungan dari situasi dengan menjalin kesepakatan dengan Departemen Pertahanan AS.
  • Label 'supply chain risk' dapat berdampak negatif pada perusahaan teknologi dan akses pemerintah terhadap inovasi.
Jakarta, Indonesia - Anthropic, perusahaan AI pembuat Claude, diberi label 'risiko rantai pasok' oleh Departemen Pertahanan AS sehingga dilarang digunakan oleh kontraktor pemerintah. CEO Anthropic, Dario Amodei, menyatakan pemblokiran itu disebabkan karena mereka tidak mendukung dana kampanye Trump dan tidak memberikan pujian berlebihan seperti pesaing mereka, OpenAI.
OpenAI, yang CEO dan presidennya diketahui memberikan donasi besar untuk dana kampanye Trump, berhasil menandatangani kesepakatan dengan Pentagon setelah kerjasama Anthropic dihentikan. Keputusan ini memicu kontroversi dan protes dari pengguna serta asosiasi teknologi AS, selain menimbulkan gelombang uninstall ChatGPT dan peningkatan unduhan kompetitor Claude.
Sengketa ini menimbulkan kekhawatiran tentang politisasi pengadaan teknologi di pemerintah AS dan potensi hambatan akses terhadap produk teknologi terbaik yang dapat berimbas pada perkembangan AI dan keamanan nasional. Beberapa perusahaan besar seperti Nvidia, Amazon, dan Apple meminta evaluasi ulang penetapan label 'risiko rantai pasok' tersebut.
Referensi:
[1] https://www.cnbcindonesia.com/tech/20260306112438-37-716608/pencipta-senjata-canggih-as-sebut-donald-trump-diktator

Analisis Ahli

Elon Musk
"Penggunaan AI dalam aplikasi militer harus dikontrol dengan sangat ketat untuk menghindari eskalasi bahaya yang tidak diinginkan dan penyalahgunaan teknologi."
Andrew Ng
"Kolaborasi antara sektor militer dan perusahaan AI memang sensitif, tapi bisa memberikan peluang inovasi jika dilakukan dengan transparansi dan batasan etika yang jelas."

Analisis Kami

"Penindasan terhadap Anthropic lebih banyak dipengaruhi oleh politik daripada penilaian teknis, yang menunjukkan risiko besar campur tangan politik dalam pengembangan teknologi AI yang berdampak negatif terhadap persaingan sehat. Di sisi lain, keputusan OpenAI bekerja sama dengan militer mungkin memberi keuntungan komersial jangka pendek namun mengikis kepercayaan pengguna yang mengutamakan etika pemanfaatan AI."

Prediksi Kami

Ketegangan antara perusahaan AI dan pemerintah AS akan terus meningkat, memicu regulasi lebih ketat serta potensi fragmentasi pasar AI berdasarkan afiliasi politik dan militer, sehingga mendorong lahirnya alternatif teknologi yang lebih independen.

Pertanyaan Terkait

Q
Apa yang dikritik Dario Amodei terhadap pemerintah AS?
A
Dario Amodei mengkritik pemerintah AS karena memberikan label 'supply chain risk' kepada produknya, Claude.
Q
Mengapa Claude dilarang digunakan oleh perusahaan yang memiliki kontrak dengan pemerintah AS?
A
Claude dilarang karena diberi label 'supply chain risk' oleh Departemen Pertahanan AS, yang mengakibatkan pembatasan penggunaan.
Q
Siapa yang merupakan CEO OpenAI dan bagaimana hubungannya dengan Trump?
A
CEO OpenAI adalah Sam Altman, yang dikenal memberikan dukungan finansial kepada Trump.
Q
Apa yang dilakukan OpenAI setelah Anthropic diusir dari kontrak pemerintah?
A
Setelah Anthropic diusir, OpenAI menjalin kesepakatan dengan Departemen Pertahanan AS untuk menjadi penyedia teknologi AI.
Q
Mengapa label 'supply chain risk' dianggap merugikan perusahaan teknologi AS?
A
Label 'supply chain risk' dianggap merugikan karena dapat menghambat akses pemerintah terhadap produk dan layanan terbaik dari perusahaan teknologi AS.