Erdem Erkul, pendiri Cerebrum Tech, menekankan pentingnya tanggung jawab dalam penggunaan teknologi, terutama kecerdasan buatan (AI). Tanggung jawab ini mencakup transparansi, keadilan, dan keamanan siber. Transparansi sangat penting agar orang-orang dapat memahami bagaimana sistem AI membuat keputusan. Banyak model AI beroperasi sebagai "kotak hitam" yang sulit dipahami, sehingga membangun kepercayaan menjadi tantangan. Untuk mengatasi masalah ini, penting untuk mendidik masyarakat tentang cara kerja AI dan berbagi informasi secara terbuka.Selain itu, keadilan dalam AI juga penting untuk memastikan teknologi tidak memperburuk ketidakadilan sosial. Sistem AI yang dilatih dengan data yang bias dapat memperkuat prasangka yang ada, seperti yang terlihat dalam kasus alat penilaian risiko yang menunjukkan bias rasial. Keamanan siber juga menjadi perhatian utama, karena banyak data pribadi yang dikumpulkan dan dapat menjadi target serangan. Oleh karena itu, penting untuk mematuhi regulasi perlindungan data dan menggunakan teknik seperti anonimisasi dan enkripsi untuk melindungi informasi sensitif. Dengan mengikuti prinsip-prinsip ini, kita dapat menciptakan sistem AI yang bermanfaat dan aman bagi semua orang.
Pengembangan AI tanpa memperhatikan aspek tanggung jawab hanya akan menghambat kepercayaan publik terhadap teknologi ini, sehingga mengurangi potensi manfaatnya. Oleh karena itu, edukasi publik dan kolaborasi lintas disiplin sangat krusial untuk menciptakan ekosistem AI yang berkelanjutan dan adil.