AI summary
DOD menempatkan Anthropic sebagai risiko rantai pasokan karena perbedaan pandangan tentang penggunaan AI untuk tujuan militer. Konflik antara Anthropic dan DOD mencerminkan ketegangan antara inovasi domestik dan kebijakan pemerintah. Karyawan dari perusahaan teknologi besar mendukung posisi Anthropic dalam menolak penggunaan AI untuk pengawasan massa dan senjata otonom. Departemen Pertahanan AS menandai perusahaan AI Anthropic sebagai risiko rantai pasokan setelah CEO mereka menolak penggunaan AI untuk pengawasan massal dan senjata otonom. Penandaan ini tidak biasa karena biasanya diperuntukkan bagi musuh asing, bukan perusahaan domestik. Tindakan ini memicu konflik dan kontroversi dalam hubungan antara militer dan industri teknologi.Anthropic merupakan satu-satunya lab AI dengan sistem yang siap digunakan secara aman untuk operasi militer dan digunakan dalam kampanye militer di Iran. Militer mengandalkan AI Anthropic yang terintegrasi dengan sistem Palantir untuk mengelola data secara cepat di wilayah konflik. Namun penandaan risiko rantai pasokan memaksa semua pihak terkait agar tidak lagi menggunakan teknologi mereka.Penandaan oleh DOD ini menimbulkan reaksi keras dari komunitas teknologi termasuk karyawan OpenAI dan Google yang menyerukan agar label tersebut dicabut dan menolak penyalahgunaan AI untuk pengawasan dan penggunaan militer tanpa pengawasan manusia. Selain itu, OpenAI justru menandatangani kesepakatan penggunaan AI untuk semua kepentingan militer yang menimbulkan kekhawatiran akan penggunaan yang tidak etis.
Penetapan Anthropic sebagai risiko rantai pasokan oleh Departemen Pertahanan adalah langkah yang berbahaya dan kontraproduktif, karena justru menghambat inovasi teknologi penting dalam keamanan nasional. Tindakan ini mencerminkan kekhawatiran yang mendalam tentang bagaimana teknologi harus digunakan secara etis, namun juga memperlihatkan ketidakmampuan pemerintah dalam berkoordinasi secara rasional dengan para inovator domestik.