Courtesy of Wired
Ikhtisar 15 Detik
- Model AI seperti Sora dapat memperkuat stereotip sosial yang ada.
- Upaya untuk mengurangi bias dalam AI memerlukan pendekatan yang lebih holistik dan kolaboratif.
- Dampak bias dalam AI dapat memiliki konsekuensi nyata di dunia nyata, terutama dalam konteks periklanan dan keamanan.
Sebuah penyelidikan oleh WIRED menemukan bahwa video yang dihasilkan oleh alat AI seperti OpenAI's Sora sering kali memperkuat stereotip yang seksis, rasis, dan mampu. Misalnya, dalam video yang dihasilkan, pilot dan CEO biasanya digambarkan sebagai pria, sementara pramugari dan pekerja perawatan anak digambarkan sebagai wanita. Selain itu, orang-orang yang digambarkan dalam video tersebut cenderung muda, ramping, dan menarik, sementara orang dengan disabilitas sering kali hanya digambarkan menggunakan kursi roda.
Sora juga menunjukkan kesulitan dalam menggambarkan hubungan yang beragam. Ketika diminta untuk menghasilkan video tentang pasangan gay, sebagian besar yang dihasilkan adalah pasangan pria yang tampak serupa, dan ketika diminta untuk menggambarkan hubungan antar ras, hasilnya sering kali tidak sesuai dengan harapan. Hal ini menunjukkan bahwa model AI ini memiliki keterbatasan dalam menciptakan representasi yang akurat dan beragam dari masyarakat.
Para peneliti menyarankan bahwa untuk mengatasi masalah bias ini, penting untuk meningkatkan keragaman dalam data pelatihan model AI. Namun, mereka juga memperingatkan bahwa hanya memperbaiki data tidak cukup, dan perlu ada kolaborasi dengan berbagai ahli untuk memahami risiko sosial yang mungkin ditimbulkan oleh model-model ini. Dengan semakin banyaknya pengguna yang mengakses Sora, ada harapan bahwa pengembang akan lebih memperhatikan masalah bias ini.
Pertanyaan Terkait
Q
Apa yang ditemukan oleh investigasi WIRED tentang model Sora dari OpenAI?A
Investigasi WIRED menemukan bahwa model Sora perpetuates stereotip seksis, rasis, dan ableis dalam hasilnya.Q
Apa saja jenis bias yang teridentifikasi dalam video yang dihasilkan oleh Sora?A
Bias yang teridentifikasi termasuk representasi gender yang tidak seimbang, stereotip rasial, dan penggambaran orang dengan disabilitas yang terbatas.Q
Bagaimana OpenAI berusaha mengurangi bias dalam model AI mereka?A
OpenAI berusaha mengurangi bias dengan meneliti cara mengubah data pelatihan dan menyesuaikan prompt pengguna.Q
Apa dampak potensial dari bias dalam video AI di bidang periklanan dan keamanan?A
Bias dalam video AI dapat memperburuk stereotip atau penghapusan kelompok terpinggirkan, serta berpotensi berbahaya dalam konteks keamanan.Q
Siapa saja para peneliti yang terlibat dalam analisis bias Sora?A
Para peneliti seperti Amy Gaeta dan Maarten Sap terlibat dalam analisis bias Sora.