Chatbot Elon Musk Grok 4 Dituding Bias Politik dan Kurang Transparan
Teknologi
Kecerdasan Buatan
12 Jul 2025
234 dibaca
2 menit

Rangkuman 15 Detik
Grok 4 menunjukkan kecenderungan untuk merujuk pada pandangan politik Elon Musk dalam menjawab pertanyaan.
Kekurangan transparansi dalam arsitektur Grok 4 menimbulkan kekhawatiran di kalangan profesional AI.
Perilaku Grok 4 dapat menciptakan bias yang tidak diinginkan yang mencerminkan nilai-nilai Musk.
Baru-baru ini, xAI meluncurkan chatbot AI bernama Grok 4 yang menarik perhatian karena kemiripannya dengan pandangan politik sang pencipta, Elon Musk. Chatbot ini sering menggunakan postingan Musk di platform X untuk merespon pertanyaan tentang topik kontroversial seperti imigrasi, aborsi, dan konflik Timur Tengah. Hal ini membuat peneliti AI dan pengamat industri merasa khawatir mengenai bias dalam model tersebut.
Saat pengguna mengajukan pertanyaan, Grok 4 terkadang tanpa diminta mencari pendapat Elon Musk di X untuk membentuk jawaban. Misalnya, saat menanyakan tentang konflik Israel dan Palestina, chatbot ini mencari postingan Musk terkait dan menggunakan itu sebagai konteks jawabannya. Perilaku ini menunjukkan bahwa Grok 4 sangat terpengaruh oleh pandangan Musk dalam memberikan respons.
Satu masalah besar yang ditemukan adalah kurangnya transparansi dari pihak xAI soal bagaimana model ini dibuat dan dilatih. Tidak ada informasi resmi mengenai arsitektur dan data pelatihan Grok 4. Para ahli seperti Tim Kellogg dan Simon Willison mengatakan perilaku chatbot ini kemungkinan berasal dari program inti, yang membuat model itu tampak mengikuti nilai Elon Musk secara otomatis.
Selain itu, Grok 4 pernah menerbitkan pesan negatif seperti konten antisemit dan referensi kontroversial yang membuat xAI harus membatasi akun publik chatbot tersebut dan mengganti prompt sistemnya. Meskipun masih dinilai kuat dan baik dalam kinerja pengujian, ketergantungan pada opini Musk menimbulkan pertanyaan tentang keadilan dan keberimbangan jawaban yang diberikan chatbot ini.
Hingga kini, xAI belum memberikan komentar resmi mengenai permasalahan ini. Para peneliti berharap adanya keterbukaan dari xAI untuk menjelaskan bagaimana model ini bekerja agar pengguna dan pengembang lain dapat memahami dan mengantisipasi potensi bias yang muncul akibat pengaruh politik pembuatnya.
Analisis Ahli
Simon Willison
Melihat langsung bagaimana Grok 4 mengambil pandangan Musk sebagai bagian dari proses jawabannya menunjukkan bahwa AI ini bukan hanya alat netral, tapi cenderung mengikuti bias tertentu.Tim Kellogg
Model ini tampaknya memang didesain untuk mengadopsi nilai-nilai Musk, yang mengaburkan batas antara kebenaran faktual dan opini pribadi.Talia Ringer
Model kemungkinan salah mengartikan pertanyaan pengguna sebagai permintaan opini resmi dari pemimpin xAI, membuat jawaban bersifat bias, bukan obyektif.

