Courtesy of SCMP
Ikhtisar 15 Detik
- DeepSeek fokus pada pengembangan teknologi AI yang efisien dan hemat biaya.
- Native Sparse Attention (NSA) dapat meningkatkan kinerja model AI tanpa mengorbankan biaya pelatihan.
- Partisipasi Liang Wenfeng dalam simposium menunjukkan pentingnya kolaborasi antara teknologi dan kebijakan pemerintah.
DeepSeek, sebuah perusahaan rintisan yang didirikan oleh Liang Wenfeng, baru saja menerbitkan studi teknis tentang "native sparse attention" (NSA), yang bertujuan untuk membuat model kecerdasan buatan (AI) lebih efisien dalam memproses data besar. Studi ini ditulis oleh Liang dan 15 penulis lainnya, dan dipublikasikan di arXiv sehari sebelum Liang berpartisipasi dalam simposium yang diadakan oleh Presiden Xi Jinping di Beijing. DeepSeek kini lebih fokus pada penelitian dan tidak terburu-buru untuk mengumpulkan dana atau melakukan kegiatan komersial baru.
Dalam studi tersebut, Liang dan tim ilmuwan muda di DeepSeek menunjukkan kemajuan mereka dalam mengembangkan model AI open-source yang canggih, seperti V3 dan R1, dengan biaya dan daya komputasi yang jauh lebih rendah dibandingkan perusahaan teknologi besar. NSA dirancang untuk mempercepat proses inferensi, yaitu saat model AI mulai mengenali pola dalam data yang belum pernah dilihat sebelumnya, tanpa mengorbankan kinerja.
Pertanyaan Terkait
Q
Apa yang dibahas dalam studi teknis yang diterbitkan oleh DeepSeek?A
Studi teknis tersebut membahas tentang Native Sparse Attention (NSA) yang bertujuan untuk meningkatkan efisiensi model AI dalam memproses data besar.Q
Siapa yang menjadi pendiri dan CEO DeepSeek?A
Pendiri dan CEO DeepSeek adalah Liang Wenfeng.Q
Apa tujuan dari Native Sparse Attention (NSA)?A
Tujuan dari Native Sparse Attention (NSA) adalah untuk mempercepat inferensi dan mengurangi biaya pelatihan tanpa mengorbankan kinerja.Q
Kapan Liang Wenfeng berpartisipasi dalam simposium yang dipimpin oleh Xi Jinping?A
Liang Wenfeng berpartisipasi dalam simposium yang dipimpin oleh Xi Jinping sehari setelah studi teknis diterbitkan.Q
Apa yang dimaksud dengan inference dalam konteks model AI?A
Inference dalam konteks model AI adalah ketika model yang telah dilatih mulai mengenali pola dalam data yang belum pernah dilihat sebelumnya.