AI summary
Meta berusaha mengurangi bias dalam model AI mereka, tetapi pendekatan ini dapat berisiko. Llama 4 telah dikritik karena memberikan jawaban yang lebih condong ke kanan dalam isu-isu sosial. Bias dalam model AI tidak hanya terbatas pada spektrum politik, tetapi juga mencakup berbagai perspektif yang lebih luas. Meta berusaha menghilangkan bias dari model AI-nya, tetapi ini lebih sulit dan berbahaya daripada yang terlihat. Upaya ini tampaknya untuk menanggapi perang pihak kanan terhadap AI 'woke' dan bukan tentang netralitas model. Meta merilis Llama 4 dengan catatan bahwa semua LLM terkemuka memiliki masalah bias.Penelitian menunjukkan bahwa Llama memberikan jawaban paling otoriter sayap kanan dibandingkan dengan ChatGPT yang memberikan jawaban paling kiri. Ada berbagai cara untuk mempengaruhi jawaban model besar, termasuk pemilihan data dan penyesuaian pasca-pelatihan. Meta dan Google pernah mencoba mengatasi bias dan menghasilkan gambar yang tidak masuk akal dan tidak akurat secara historis.GLAAD menemukan bahwa Llama 4 merujuk pada praktik terapi konversi yang tidak diakui. Para ahli khawatir bahwa Meta tampaknya mengarahkan Llama ke arah kanan. Penolakan adalah bagian penting dari membangun model yang dapat digunakan oleh banyak orang, tetapi Meta mengklaim bahwa Llama 4 menolak lebih sedikit pada topik politik dan sosial yang diperdebatkan.
Upaya Meta untuk menghilangkan bias dalam AI adalah langkah yang perlu, tapi mereka nampak lebih terjebak dalam politik daripada etika profesional. Menurunkan penolakan model justru membuka celah untuk disinformasi dan bahaya sosial yang lebih besar.