ByteDance mengatakan bahwa teknologi AI baru meningkatkan efisiensi pelatihan model.
Courtesy of SCMP

Rangkuman Berita: ByteDance mengatakan bahwa teknologi AI baru meningkatkan efisiensi pelatihan model.

SCMP
DariĀ SCMP
11 Maret 2025 pukul 20.00 WIB
61 dibaca
Share
Ikhtisar 15 Detik
  • ByteDance telah meningkatkan efisiensi pelatihan model bahasa besar secara signifikan.
  • Kemajuan dalam teknik Mixture-of-Experts dapat mengurangi ketergantungan pada GPU Nvidia.
  • Keberhasilan perusahaan seperti DeepSeek dapat mempengaruhi pasar dan nilai perusahaan teknologi besar.
Perusahaan teknologi asal China, ByteDance, yang memiliki TikTok, baru-baru ini mengumumkan bahwa mereka telah meningkatkan efisiensi pelatihan model bahasa besar (LLM) hingga 1,71 kali lipat. Mereka menggunakan sistem yang disebut COMET, yang merupakan teknik Mixture-of-Experts (MoE) yang dioptimalkan. Teknik ini membagi masalah menjadi bagian-bagian yang lebih kecil dan lebih mudah dipecahkan, sehingga memungkinkan pelatihan model AI yang lebih besar tanpa meningkatkan biaya komputasi. Dengan sistem baru ini, ByteDance berhasil menghemat jutaan jam penggunaan GPU, yang merupakan chip penting untuk pelatihan AI.
Peningkatan efisiensi ini dapat mengurangi permintaan untuk chip dari Nvidia, yang dikenal dengan GPU berkinerja tinggi. Setelah perusahaan lain, DeepSeek, juga mencapai kemajuan dalam mengurangi biaya pelatihan AI, nilai pasar Nvidia turun hampir Rp 9.87 quadriliun ($600 miliar) dalam satu hari. Meskipun teknik MoE banyak digunakan, ada beberapa masalah yang dihadapi, seperti efisiensi komputasi yang menurun. Tim ByteDance berusaha mengatasi masalah ini dengan meningkatkan komunikasi dan adaptabilitas sistem mereka.

Pertanyaan Terkait

Q
Apa yang dicapai oleh ByteDance dalam pelatihan model bahasa besar?
A
ByteDance mencapai peningkatan efisiensi sebesar 1,71 kali dalam pelatihan model bahasa besar.
Q
Apa itu sistem Mixture-of-Experts yang digunakan oleh ByteDance?
A
Sistem Mixture-of-Experts adalah teknik pembelajaran mesin yang menggunakan beberapa jaringan ahli untuk membagi ruang masalah menjadi bagian yang homogen.
Q
Mengapa kemajuan dalam efisiensi pelatihan model AI dapat mempengaruhi permintaan GPU Nvidia?
A
Kemajuan dalam efisiensi pelatihan model AI dapat mengurangi kebutuhan akan GPU Nvidia yang mahal.
Q
Apa dampak dari keberhasilan DeepSeek terhadap nilai pasar Nvidia?
A
Keberhasilan DeepSeek menyebabkan penurunan nilai pasar Nvidia hampir $600 miliar dalam satu hari.
Q
Apa masalah yang dihadapi oleh teknik Mixture-of-Experts menurut ilmuwan ByteDance?
A
Teknik Mixture-of-Experts menghadapi masalah 'overlapping komunikasi-komputasi' yang mengurangi efisiensi komputasi.

Rangkuman Berita Serupa

DeepSeek memberikan keuntungan bagi pembuat chip di China dalam perlombaan untuk AI yang lebih murah.YahooFinance
Teknologi
2 bulan lalu
81 dibaca
DeepSeek memberikan keuntungan bagi pembuat chip di China dalam perlombaan untuk AI yang lebih murah.
DeepSeek mendukung upaya China untuk mengurangi ketergantungan pada ekosistem Nvidia.SCMP
Teknologi
2 bulan lalu
73 dibaca
DeepSeek mendukung upaya China untuk mengurangi ketergantungan pada ekosistem Nvidia.
Apakah AI DeepSeek seefisien itu? Daya komputasi perusahaan China menjadi sorotan.SCMP
Bisnis
2 bulan lalu
126 dibaca
Apakah AI DeepSeek seefisien itu? Daya komputasi perusahaan China menjadi sorotan.
Apa yang Dapat Dilakukan Model Baru untuk AI?Forbes
Teknologi
2 bulan lalu
29 dibaca
Apa yang Dapat Dilakukan Model Baru untuk AI?
Apa arti kesuksesan DeepSeek bagi Nvidia dan pertumbuhan AI berbasis GPU yang mahalSCMP
Teknologi
2 bulan lalu
90 dibaca
Apa arti kesuksesan DeepSeek bagi Nvidia dan pertumbuhan AI berbasis GPU yang mahal
Model AI Baru DeepSeek Memicu Kejutan, Kekaguman, dan Pertanyaan dari Pesaing ASWired
Teknologi
2 bulan lalu
49 dibaca
Model AI Baru DeepSeek Memicu Kejutan, Kekaguman, dan Pertanyaan dari Pesaing AS