Qualcomm Hadirkan Solusi AI Inference Hemat Energi dan Berkinerja Tinggi untuk Data Center
Courtesy of InterestingEngineering

Qualcomm Hadirkan Solusi AI Inference Hemat Energi dan Berkinerja Tinggi untuk Data Center

Menghadirkan solusi AI inference generasi berikutnya yang efisien, hemat biaya, dan berperforma tinggi untuk memudahkan data center dalam mengoperasikan model AI besar secara skala rak dengan konsumsi daya optimal.

28 Okt 2025, 06.43 WIB
37 dibaca
Share
Ikhtisar 15 Detik
  • Qualcomm meluncurkan solusi AI inference baru yang efisien untuk data center.
  • AI200 dan AI250 dirancang untuk mendukung pemodelan AI generatif dengan biaya kepemilikan yang lebih rendah.
  • Inovasi di AI250 memungkinkan pemrosesan inferensi yang lebih efisien dan hemat energi.
Qualcomm Technologies baru saja meluncurkan produk akselerator AI baru mereka yaitu AI200 dan AI250 yang didesain khusus untuk inferensi AI generatif. Produk ini menargetkan data center skala besar yang membutuhkan solusi dengan performa tinggi namun tetap hemat daya dan biaya operasional.
AI200 adalah solusi berbasis kartu yang memiliki kapasitas memori LPDDR hingga 768 GB, memberikan kemampuan skala dan fleksibilitas tinggi dalam menangani permintaan inferensi model AI besar seperti model bahasa dan multimodal. Hal ini memungkinkan perusahaan dapat menjalankan AI secara lebih efisien.
AI250 memperkenalkan teknologi near-memory computing yang meningkatkan bandwidth memori lebih dari 10 kali lipat serta mengurangi konsumsi daya secara signifikan. Teknologi ini memungkinkan penggunaan hardware yang lebih efisien dan performa yang tetap optimal atas beban kerja AI yang berat.
Kedua solusi ini dirancang untuk integrasi di tingkat rack dengan sistem pendinginan cairan langsung dan konektivitas PCIe serta Ethernet, menunjang skalabilitas baik secara vertikal maupun horizontal, serta memastikan operasional yang stabil dan efisien dalam data center masa kini.
Selain hardware yang canggih, Qualcomm juga menyediakan software stack yang lengkap, termasuk dukungan untuk berbagai framework AI populer dan fitur deployment model yang mudah. Hal ini memberikan kemudahan bagi pengembang dan perusahaan untuk mengadopsi dan mengelola AI generatif dengan lancar.
Referensi:
[1] https://interestingengineering.com/energy/qualcomm-ai200-ai250-data-center-ai-inference

Analisis Ahli

Andrew Ng
"Pengembangan akselerator AI yang hemat energi dan berperforma tinggi adalah arah yang sangat tepat untuk mendukung ekosistem AI generatif agar dapat diakses secara ekonomis dan skalabel oleh berbagai industri."

Analisis Kami

"Qualcomm berhasil menjawab kebutuhan kritis pasar data center dengan fokus kuat pada efisiensi energi dan performa tinggi yang sangat dibutuhkan untuk generative AI. Dengan integrasi hardware dan software yang mendalam, mereka bukan hanya menawarkan produk, tapi juga ekosistem siap pakai yang dapat mempercepat adopsi teknologi AI secara luas."

Prediksi Kami

Solusi Qualcomm ini akan mendorong tren adopsi AI inference generasi terbaru di pusat data global, mempercepat inovasi dan efisiensi operasional sambil menekan biaya dan konsumsi energi di industri AI skala besar.

Pertanyaan Terkait

Q
Apa itu AI200 dan AI250?
A
AI200 dan AI250 adalah kartu akselerator AI yang dioptimalkan untuk inferensi, dengan AI200 fokus pada model bahasa besar dan AI250 menggunakan arsitektur komputasi near-memory.
Q
Apa tujuan dari peluncuran solusi baru oleh Qualcomm?
A
Tujuan peluncuran solusi baru ini adalah untuk memberikan inferensi AI generatif yang cepat dan efisien biaya, serta meningkatkan kinerja per dolar per watt.
Q
Bagaimana AI250 meningkatkan efisiensi dalam pemrosesan AI?
A
AI250 menggunakan arsitektur komputasi near-memory yang menawarkan bandwidth memori lebih dari 10x lebih tinggi dan mengurangi konsumsi daya secara drastis.
Q
Kapan Qualcomm mengharapkan AI200 dan AI250 tersedia secara komersial?
A
Qualcomm mengharapkan AI200 tersedia pada tahun 2026 dan AI250 pada tahun 2027.
Q
Apa yang ditawarkan Qualcomm dalam hal dukungan perangkat lunak untuk AI?
A
Qualcomm menawarkan tumpukan perangkat lunak AI yang mendukung integrasi, manajemen, dan skala model AI yang sudah dilatih, termasuk dukungan untuk framework AI utama.