Courtesy of Reuters
Ikhtisar 15 Detik
- MLCommons mengembangkan benchmark baru untuk meningkatkan performa aplikasi AI.
- Nvidia menunjukkan peningkatan signifikan dalam kecepatan server AI mereka.
- Benchmark baru ini bertujuan untuk mendekati waktu respons instan dalam aplikasi AI konsumen.
MLCommons, sebuah kelompok yang fokus pada kecerdasan buatan (AI), baru saja meluncurkan dua benchmark baru untuk mengukur seberapa cepat perangkat keras dan perangkat lunak dapat menjalankan aplikasi AI. Sejak peluncuran ChatGPT oleh OpenAI dua tahun lalu, perusahaan chip mulai beralih untuk membuat perangkat keras yang lebih efisien dalam menjalankan kode AI. Benchmark baru ini dirancang untuk mengukur kecepatan sistem dalam menjawab pertanyaan dan menghasilkan kode.
Baca juga: Eksklusif: Alphabet, Nvidia berinvestasi di SSI milik salah satu pendiri OpenAI, kata sumber.
Salah satu benchmark baru ini didasarkan pada model AI Llama 3.1 yang dibuat oleh Meta, yang memiliki 405 miliar parameter. Benchmark ini menguji kemampuan sistem untuk memproses pertanyaan besar dan menggabungkan data dari berbagai sumber. Nvidia, salah satu perusahaan chip terkemuka, mengajukan beberapa chipnya untuk benchmark ini dan menunjukkan bahwa server AI terbaru mereka, yang disebut Grace Blackwell, jauh lebih cepat dibandingkan generasi sebelumnya.
Benchmark kedua juga didasarkan pada model AI open-source dari Meta dan bertujuan untuk meniru kinerja aplikasi AI konsumen seperti ChatGPT. Tujuannya adalah untuk mempercepat waktu respons sehingga mendekati respons instan. Dengan pengembangan ini, diharapkan aplikasi AI dapat memberikan jawaban yang lebih cepat dan efisien kepada pengguna.
Pertanyaan Terkait
Q
Apa yang diumumkan oleh MLCommons?A
MLCommons mengumumkan dua benchmark baru untuk mengukur kecepatan perangkat keras dan perangkat lunak dalam menjalankan aplikasi AI.Q
Apa tujuan dari benchmark baru yang dikembangkan oleh MLCommons?A
Tujuan dari benchmark baru adalah untuk mengukur kemampuan sistem dalam memproses kueri besar dan menyintesis data dari berbagai sumber.Q
Siapa yang mengajukan chip untuk benchmark baru tersebut?A
Nvidia dan pembangun sistem seperti Dell Technologies mengajukan chip untuk benchmark baru tersebut.Q
Apa yang membuat server AI Nvidia terbaru lebih cepat?A
Server AI Nvidia terbaru lebih cepat karena memiliki koneksi chip yang lebih cepat dan efisien.Q
Apa model AI yang digunakan dalam benchmark baru ini?A
Model AI yang digunakan dalam benchmark baru ini adalah Llama 3.1 yang dikembangkan oleh Meta.