Courtesy of SCMP
Ikhtisar 15 Detik
- DeepSeek mengembangkan teknik baru untuk meningkatkan model bahasa besar.
- Kolaborasi dengan Universitas Tsinghua menunjukkan pentingnya penelitian akademis dalam pengembangan AI.
- Model DeepSeek-R1 telah mendapatkan perhatian global karena kinerjanya yang kompetitif.
DeepSeek, sebuah perusahaan start-up kecerdasan buatan (AI) asal China, telah mengembangkan teknik baru untuk meningkatkan kemampuan berpikir model bahasa besar (LLM). Mereka bekerja sama dengan peneliti dari Universitas Tsinghua untuk menciptakan metode yang menggabungkan generative reward modelling (GRM) dan self-principled critique tuning. Tujuan dari teknik ini adalah agar model LLM dapat memberikan hasil yang lebih baik dan lebih cepat untuk berbagai pertanyaan.
Model DeepSeek-GRM yang dihasilkan telah menunjukkan kinerja yang lebih baik dibandingkan metode yang ada sebelumnya. Proses reward modelling membantu model LLM untuk lebih memahami preferensi manusia. DeepSeek berencana untuk menjadikan model GRM ini sebagai sumber terbuka, meskipun mereka belum memberikan jadwal pasti untuk peluncurannya.
Saat ini, banyak orang menunggu peluncuran model terbaru DeepSeek, yaitu DeepSeek-R2, yang merupakan penerus dari model R1. Model R1 sebelumnya telah menarik perhatian dunia teknologi karena kinerjanya yang efisien dan mampu bersaing dengan model-model terkemuka lainnya. Meskipun ada spekulasi tentang peluncuran R2, DeepSeek belum memberikan komentar resmi mengenai hal ini.