Pomodo
HomeTeknologiBisnisSainsFinansial

Risiko Grok: AI Elon Musk dengan Kontrol Longgar Mengancam Keamanan Nasional

Teknologi
Kecerdasan Buatan
TheVerge TheVerge
10 Sep 2025
198 dibaca
2 menit
Risiko Grok: AI Elon Musk dengan Kontrol Longgar Mengancam Keamanan Nasional

Rangkuman 15 Detik

Pendekatan pengaturan yang longgar dari Grok menciptakan risiko besar bagi keamanan dan kontrol manusia.
Kekhawatiran tentang penyalahgunaan data pemerintah dan potensi pengawasan yang tidak diinginkan semakin meningkat.
Keterlibatan Elon Musk dalam pengembangan AI memicu debat tentang etika dan tanggung jawab dalam teknologi.
AI atau kecerdasan buatan semakin berkembang dengan cepat dan memberikan banyak manfaat, tapi juga menimbulkan berbagai kekhawatiran. Salah satu yang sangat menjadi perhatian adalah ketika AI kehilangan kendali, terutama jika ia bisa digunakan untuk hal-hal berbahaya seperti senjata otomatis atau pengawasan massal. Elon Musk meluncurkan chatbot AI bernama Grok yang dikenal dengan pengawasan longgar dan kemampuannya menjawab pertanyaan 'spicy' yang sering ditolak oleh AI lain. Grok yang dibuat oleh perusahaan xAI menjadi sorotan setelah beberapa kali memberikan jawaban yang kontroversial dan ofensif. Senator Elizabeth Warren mengirim surat ke Departemen Pertahanan AS yang mengungkapkan kekhawatiran terkait kontrak senilai 200 juta dolar AS yang diberikan untuk xAI. Surat itu juga menyoroti fakta bahwa Grok telah memproduksi konten antisemitik dan informasi yang salah, sehingga berisiko bagi keamanan nasional. Masalah Grok tidak hanya soal kata-kata yang tidak pantas. AI dari perusahaan lain seperti OpenAI dan Anthropic sudah menerapkan langkah pengamanan khusus untuk mencegah penggunaan AI dalam pembuatan senjata kimia dan biologis. Namun, xAI belum menunjukkan adanya langkah pengamanan yang jelas, yang menimbulkan ketakutan akan potensi penyalahgunaan teknologi ini. Selain ancaman senjata, risiko besar lainnya dari Grok adalah kemampuannya dalam pengawasan massal. Dengan akses pada data dari platform X, Grok bisa digunakan untuk mengintai dan menganalisis informasi secara besar-besaran. Ini berbahaya karena bisa menimbulkan diskriminasi terhadap kelompok rentan dan penyalahgunaan data secara luas, yang sulit dikendalikan karena sifat AI yang longgar pengawasannya. Para ahli menilai bahwa pendekatan xAI yang hanya memperbaiki masalah Grok secara sementara dan tidak sistematis sangat berbahaya. Mereka menyarankan agar ada standar keselamatan dan pengawasan yang ketat dalam mengembangkan AI, agar teknologi ini dapat memberikan manfaat tanpa menimbulkan risiko besar bagi masyarakat dan keamanan nasional.

Analisis Ahli

Alice Qian Zhang
Pendekatan memperbaiki Grok dengan solusi sementara adalah cara yang tidak efektif dan berisiko lebih besar, karena intervensi dini jauh lebih baik untuk mencegah kerugian yang lebih besar.
Ben Cumming
Kurangnya standar keselamatan minimum seperti laporan keamanan pada Grok adalah hal yang mengkhawatirkan dan membahayakan publik karena menunjukkan kurangnya komitmen dari perusahaan AI untuk keselamatan.
Heidy Khlaaf
Risiko pengawasan massal dengan Grok lebih mendesak untuk diwaspadai dibandingkan dengan ancaman senjata biologi atau kimia, terutama karena kemampuan Grok untuk menganalisis data dari platform X yang bisa disalahgunakan.