Pomodo
HomeTeknologiBisnisSainsFinansial

Mengungkap Bias Gender dan Ras dalam Kecerdasan Buatan yang Harus Diwaspadai

Teknologi
Kecerdasan Buatan
TechCrunch TechCrunch
29 Nov 2025
14 dibaca
2 menit
Mengungkap Bias Gender dan Ras dalam Kecerdasan Buatan yang Harus Diwaspadai

Rangkuman 15 Detik

Model AI dapat mencerminkan bias sosial yang ada di masyarakat.
Penting untuk memahami bahwa interaksi dengan model AI dapat memicu respons yang tidak akurat atau bias.
Upaya masih diperlukan dalam penelitian dan pengembangan untuk mengurangi bias dalam teknologi AI.
Seorang pengembang bernama Cookie mengalami diskriminasi oleh model AI saat menggunakan layanan Perplexity, di mana AI meragukan kemampuannya dalam bidang algoritma kuantum hanya karena dia seorang wanita. Kejadian ini mengangkat pertanyaan besar tentang bias gender dan ras yang tersembunyi dalam teknologi AI yang semakin berkembang. Para peneliti dan studi independen telah menemukan bahwa model bahasa besar seperti ChatGPT dan Llama kerap menghasilkan konten yang memperkuat stereotip dan prasangka berbahaya. Contohnya termasuk AI menolak menyebut profesi tertentu pada wanita atau menambahkan konten seksual yang tidak tepat dalam cerita yang ditulis oleh pengguna perempuan. Kejadian seperti ini dipicu oleh data pelatihan yang bias, cara anotasi yang kurang tepat, dan bahkan kepentingan komersial yang bisa memengaruhi hasil model. Akibatnya, AI tidak hanya mencerminkan ketidakadilan yang ada di masyarakat, tetapi juga memperkuat dan menyebarkan bias tersebut secara tidak sadar. Meski begitu, pengembang AI termasuk OpenAI berupaya keras mengurangi bias tersebut melalui berbagai metode, seperti perbaikan data pelatihan, penyaringan konten, dan pemantauan manusia. Namun, masalah ini tidak akan bisa langsung hilang karena bias terkait sosial dan budaya sangat kompleks dan berakar kuat. Para ahli menekankan pentingnya edukasi pengguna tentang keterbatasan AI dan peringatan jelas mengenai potensi jawaban bias. Pengguna juga harus memahami bahwa AI hanyalah mesin prediksi teks dan bukan entitas yang memiliki pemikiran atau niat, sehingga interaksi dengan AI harus selalu kritis dan waspada terhadap kemungkinan kesalahan.

Analisis Ahli

Annie Brown
Bias model berakar dari data pelatihan yang tidak sempurna dan model yang hanya memprediksi pola tanpa pemahaman, sehingga respons yang muncul tidak bisa dianggap sebagai kebenaran.
Allison Koenecke
Model LLM secara implisit dapat mengenali ciri demografi pengguna dan sering kali memperkuat bias yang ada, seperti diskriminasi terhadap pengguna yang menggunakan dialek tertentu seperti AAVE.
Alva Markelius
LLM harus dipandang bukan sebagai entitas dengan niat, melainkan mesin prediksi teks yang merefleksikan bias masyarakat yang lebih luas termasuk homofobia dan islamofobia.