MoE atau Mixture-of-Experts adalah teknik pembelajaran mesin yang menggunakan beberapa jaringan untuk membagi ruang masalah. Teknik ini telah diadopsi oleh banyak model AI terkemuka untuk meningkatkan efisiensi dan skala.
Teknologi
1 bulan lalu
Penggunaan GPU lokal oleh Ant Group, bukan Nvidia, mengurangi biaya pelatihan model AI sebesar 20%.
Tentang Halaman Ini
MoE atau Mixture-of-Experts adalah teknik pembelajaran mesin yang menggunakan beberapa jaringan untuk membagi ruang masalah. Teknik ini telah diadopsi oleh banyak model AI terkemuka untuk meningkatkan efisiensi dan skala.