Apakah DeepSeek menyalin dari OpenAI? Dan apa itu distilasi?
Courtesy of Forbes

Rangkuman Berita: Apakah DeepSeek menyalin dari OpenAI? Dan apa itu distilasi?

Forbes
Dari Forbes
30 Januari 2025 pukul 18.27 WIB
98 dibaca
Share
Perusahaan China, DeepSeek, baru-baru ini mengumumkan model R1 yang sangat canggih, yang menggabungkan kinerja tinggi dengan biaya sumber daya yang rendah. Pengumuman ini mengguncang pasar saham AS dan menciptakan dampak besar di seluruh dunia. Namun, ada tuduhan bahwa DeepSeek menggunakan cara yang tidak etis untuk mengumpulkan data pelatihan, yaitu dengan memanfaatkan API GPT-4 dari OpenAI secara besar-besaran untuk menghasilkan respons dari ribuan atau jutaan permintaan. Hal ini menimbulkan kekhawatiran di kalangan para pemimpin industri, termasuk pejabat pemerintah AS, tentang praktik "distillation" yang digunakan untuk menyalin kemampuan model AI yang lebih besar.
Distillation dalam dunia AI adalah proses pemindahan pengetahuan dari model besar ke model yang lebih kecil dan efisien. Proses ini penting karena model yang lebih besar mungkin tidak sepenuhnya memanfaatkan kapasitas pengetahuannya. Dengan distillation, hasil yang lebih baik dapat diperoleh dari model besar dan diterapkan pada model yang lebih kecil, seperti dalam kendaraan otonom. Ada berbagai metode distillation, termasuk distillation berbasis respons dan fitur, serta metode online dan offline. Saat ini, AS berusaha memperketat kontrol ekspor untuk mencegah peniruan sistem AI yang kuat oleh negara lain, termasuk China.

Pertanyaan Terkait

Q
Apa yang diumumkan oleh perusahaan DeepSeek?
A
DeepSeek mengumumkan model R1 yang memiliki kemampuan tinggi dengan biaya sumber daya yang rendah.
Q
Siapa David Sacks dan apa komentarnya tentang DeepSeek?
A
David Sacks adalah czar AI dan crypto baru di AS yang menyatakan ada bukti substansial terkait praktik meragukan DeepSeek.
Q
Apa itu distilasi dalam konteks AI?
A
Distilasi dalam konteks AI adalah proses transfer pengetahuan dari model besar ke model yang lebih kecil.
Q
Mengapa CNN penting dalam distilasi pengetahuan?
A
CNN penting dalam distilasi pengetahuan karena dirancang khusus untuk pengenalan objek dan visi komputer.
Q
Apa relevansi teori Marvin Minsky dengan distilasi model AI?
A
Teori Marvin Minsky relevan karena menyatakan bahwa organisme besar adalah kumpulan dari yang lebih kecil yang bekerja sama, mirip dengan cara model AI berfungsi.

Rangkuman Berita Serupa

Wawancara Saya Dengan Staf Deepseek AS Mengungkapkan Lima Pandangan Baru Tentang Masa Depan AIForbes
Teknologi
2 bulan lalu
58 dibaca
Wawancara Saya Dengan Staf Deepseek AS Mengungkapkan Lima Pandangan Baru Tentang Masa Depan AI
Bagaimana DeepSeek mengubah lanskap AI di Silicon ValleyTechCrunch
Teknologi
2 bulan lalu
103 dibaca
Bagaimana DeepSeek mengubah lanskap AI di Silicon Valley
Tidak, DeepSeek Bukanlah 'Momen Sputnik'Forbes
Teknologi
2 bulan lalu
117 dibaca
Tidak, DeepSeek Bukanlah 'Momen Sputnik'
DeepSeek Berarti Akhir dari Big Data, Bukan Akhir dari NvidiaForbes
Teknologi
2 bulan lalu
64 dibaca
DeepSeek Berarti Akhir dari Big Data, Bukan Akhir dari Nvidia
OpenAI mengatakan bahwa DeepSeek mungkin telah "menggunakan" output modelnya secara "tidak pantas".Axios
Bisnis
2 bulan lalu
67 dibaca
OpenAI mengatakan bahwa DeepSeek mungkin telah "menggunakan" output modelnya secara "tidak pantas".
Apakah OpenAI Korban — DeepSeek dan Hak Kekayaan Intelektual — Sebuah Panduan untuk Para PemimpinForbes
Teknologi
2 bulan lalu
76 dibaca
Apakah OpenAI Korban — DeepSeek dan Hak Kekayaan Intelektual — Sebuah Panduan untuk Para Pemimpin