AI summary
Kesalahan dalam AI kesehatan dapat berakibat fatal dalam diagnosis medis. Pentingnya pengawasan manusia dalam penggunaan teknologi AI di bidang medis. Akurasi dan keandalan model AI harus dipertahankan agar dapat digunakan dengan aman dalam praktik klinis. Google memperkenalkan Med-Gemini, sebuah model AI kesehatan canggih yang bisa membantu dalam membaca data medis, termasuk hasil radiologi. Model ini dirancang untuk menunjang dokter dengan menemukan abnormalitas yang mungkin terlewatkan.Namun, Med-Gemini menghasilkan kesalahan dalam laporan yang menyebut adanya masalah di 'basilar ganglia', sebuah istilah yang salah dan tidak ada dalam anatomi otak. Istilah yang benar adalah 'basal ganglia' yang berperan dalam kontrol motor dan fungsi otak lainnya.Kesalahan ini menjadi sorotan saat seorang neurologis bernama Bryan Moore mengingatkan Google, tetapi perusahaan tersebut hanya mengubah blog tanpa transparansi dan membiarkan dokumen penelitian tetap berisi kesalahan tersebut.Para ahli kesehatan mengingatkan bahwa kesalahan kecil seperti ini sangat berbahaya karena AI sangat dipercaya dan kesalahan bisa menyebar tanpa diketahui, memperlihatkan risiko otomatisasi dan tingginya kebutuhan validasi manusia di setiap langkah.Meskipun AI kesehatan menjanjikan kemajuan besar, para profesional menekankan bahwa model AI harus dikembangkan dengan standar ketat, serta didukung sistem deteksi kesalahan real-time agar dapat digunakan secara aman dalam praktik medis.
Meski AI memiliki potensi besar untuk meningkatkan efisiensi di bidang medis, kesalahan dasar seperti salah istilah anatomi menunjukkan teknologi ini belum siap diandalkan sepenuhnya. Kebutuhan akan pengawasan manusia dan validasi klinis yang ketat tidak bisa diabaikan agar keselamatan pasien tetap prioritas utama.