Ant Group Percepat AI Dengan Framework dInfer untuk Model Bahasa Difusi
Courtesy of SCMP

Ant Group Percepat AI Dengan Framework dInfer untuk Model Bahasa Difusi

Mengumumkan dan mempromosikan framework inference dInfer yang dikembangkan Ant Group untuk model bahasa difusi, yang diklaim jauh lebih cepat dan efisien dibandingkan teknologi Nvidia, sekaligus menyoroti strategi China dalam mengakselerasi inovasi AI melalui algoritma dan perangkat lunak.

15 Okt 2025, 18.24 WIB
38 dibaca
Share
Ikhtisar 15 Detik
  • Ant Group telah merilis framework open-source baru bernama dInfer untuk model bahasa difusi.
  • Model difusi menawarkan cara baru untuk menghasilkan teks secara lebih efisien dibandingkan model autoregresif.
  • China berusaha mengejar ketertinggalan dalam teknologi AI dengan fokus pada pengembangan algoritma dan optimisasi perangkat lunak.
China - Ant Group, bagian dari Alibaba, mengumumkan sebuah framework baru bernama dInfer yang dirancang khusus untuk mengeksekusi model bahasa difusi yang saat ini sedang berkembang pesat. Model bahasa difusi berbeda dari model lama yang digunakan oleh ChatGPT dan sejenisnya karena dapat menghasilkan hasil secara paralel, sehingga lebih cepat.
Model bahasa tradisional yang disebut autoregresif menghasilkan teks satu per satu, mulai dari kiri ke kanan. Sementara model difusi bekerja dengan cara yang berbeda, memungkinkan proses yang lebih efisien dan cepat, terutama dalam aplikasi seperti penghasilan kode dan pembuatan gambar atau video.
Dalam uji coba internal yang dilakukan Ant menggunakan model LLaDA-MoE, framework dInfer dapat menghasilkan hingga 1,011 token per detik, jauh lebih cepat dibandingkan vLLM yang mencapai 294 token per detik dan Fast-dLLM dari Nvidia hanya 91 token per detik. Angka ini menunjukkan keunggulan signifikan dari framework baru ini.
Keberhasilan Ant dengan dInfer menandai upaya serius perusahaan teknologi besar di China untuk mengejar ketertinggalan dalam teknologi AI, khususnya dalam optimisasi software dan algoritma AI karena keterbatasan akses ke chip AI canggih yang diproduksi di luar negeri.
Dengan meluncurkan framework sebagai open-source, Ant Group membuka kesempatan kolaborasi dan pengembangan lebih lanjut dari komunitas global. Hal ini juga menandai pergeseran penting dalam pengembangan AI di level dunia, memperkuat posisi China dalam arena teknologi mutakhir.
Referensi:
[1] https://www.scmp.com/tech/big-tech/article/3329138/ant-group-explores-ai-inference-framework-10-times-faster-nvidias-solution?module=top_story&pgtype=section

Analisis Ahli

Andrew Ng
"Pengembangan alternatif framework inference sangat penting untuk diversifikasi teknologi AI dan keberlanjutan inovasi yang inklusif."
Fei-Fei Li
"Model bahasa difusi membuka peluang baru dalam pemrosesan bahasa alami yang dapat memperluas aplikasi AI di berbagai bidang."

Analisis Kami

"Inovasi Ant Group dengan dInfer menunjukkan bahwa peningkatan performa AI tidak hanya tergantung pada hardware tetapi juga optimisasi algoritma yang cerdas. Dengan kemajuan ini, China mungkin akan semakin cepat mengejar ketertinggalan di ranah teknologi AI global, memaksa pemain besar seperti Nvidia untuk terus berinovasi agar tidak kehilangan dominasinya."

Prediksi Kami

Framework dInfer dapat memacu peningkatan adopsi model bahasa difusi secara global, mendorong persaingan teknologi AI internasional, terutama antara perusahaan di China dan AS.

Pertanyaan Terkait

Q
Apa itu dInfer dan siapa yang mengembangkannya?
A
dInfer adalah framework inferensi untuk model bahasa difusi yang dikembangkan oleh Ant Group.
Q
Bagaimana cara kerja model difusi dibandingkan dengan model autoregresif?
A
Model difusi menghasilkan output secara paralel, sedangkan model autoregresif menghasilkan teks secara berurutan dari kiri ke kanan.
Q
Apa klaim Ant Group tentang kecepatan dInfer dibandingkan dengan framework lain?
A
Ant Group mengklaim bahwa dInfer bisa tiga kali lebih cepat dari vLLM dan sepuluh kali lebih cepat dari Fast-dLLM milik Nvidia.
Q
Mengapa perusahaan teknologi besar di China seperti Ant Group berfokus pada pengembangan algoritma?
A
Perusahaan-perusahaan teknologi besar di China berfokus pada pengembangan algoritma untuk mengatasi kekurangan dalam chip AI canggih.
Q
Apa yang dimaksud dengan model LLaDA-MoE dalam konteks artikel ini?
A
LLaDA-MoE adalah model bahasa difusi yang digunakan oleh Ant Group dalam pengujian performa dInfer.