Courtesy of TechCrunch
Minggu ini, sebuah laboratorium AI asal Tiongkok bernama DeepSeek meluncurkan model AI baru bernama DeepSeek V3 yang diklaim lebih baik dari banyak pesaingnya dalam berbagai tes. Model ini mampu menangani tugas berbasis teks seperti pemrograman dan penulisan esai dengan baik. Namun, yang menarik adalah DeepSeek V3 sering mengidentifikasi dirinya sebagai ChatGPT, chatbot yang dikembangkan oleh OpenAI. Ketika ditanya lebih lanjut, model ini mengklaim bahwa ia adalah versi dari model GPT-4 yang dirilis pada Juni 2023. Hal ini menimbulkan pertanyaan tentang sumber data pelatihan yang digunakan oleh DeepSeek, karena ada kemungkinan model ini telah "mengingat" output dari ChatGPT dan mengulanginya tanpa menyadari.
Para ahli mengingatkan bahwa pelatihan model AI dengan menggunakan output dari model lain bisa berisiko, karena dapat menghasilkan jawaban yang tidak akurat atau menyesatkan. Ini mirip dengan membuat salinan dari salinan, di mana informasi yang hilang semakin banyak. Selain itu, ada kekhawatiran bahwa DeepSeek V3 mungkin telah menyerap bias dan kesalahan dari model GPT-4. OpenAI sendiri melarang penggunaan output dari produk mereka untuk mengembangkan model yang bersaing, dan CEO OpenAI, Sam Altman, menyatakan bahwa menyalin sesuatu yang sudah ada lebih mudah dibandingkan menciptakan sesuatu yang baru dan berisiko.
Pertanyaan Terkait
Q
Apa yang dirilis oleh DeepSeek baru-baru ini?A
DeepSeek baru-baru ini merilis model AI terbuka bernama DeepSeek V3.Q
Mengapa DeepSeek V3 mengidentifikasi dirinya sebagai ChatGPT?A
DeepSeek V3 mengidentifikasi dirinya sebagai ChatGPT karena kemungkinan telah dilatih menggunakan data yang dihasilkan oleh ChatGPT.Q
Apa masalah yang mungkin timbul dari pelatihan model AI menggunakan output dari model lain?A
Masalah yang mungkin timbul termasuk hallucinations dan jawaban yang menyesatkan, serta penurunan kualitas model.Q
Siapa Mike Cook dan apa pandangannya tentang DeepSeek V3?A
Mike Cook adalah seorang peneliti yang mengkhususkan diri dalam AI dan ia menyatakan bahwa pelatihan model pada output model lain dapat menyebabkan masalah kualitas.Q
Apa yang dikatakan Heidy Khlaaf tentang 'distilasi' pengetahuan model AI?A
Heidy Khlaaf menyatakan bahwa 'distilasi' pengetahuan dari model yang sudah ada dapat menarik bagi pengembang meskipun ada risiko yang terlibat.