Pomodo
HomeTeknologiBisnisSainsFinansial

Tensormesh: Solusi Revolusioner Menghemat Biaya AI Hingga Sepuluh Kali Lipat

Teknologi
Kecerdasan Buatan
TechCrunch TechCrunch
23 Okt 2025
233 dibaca
2 menit
Tensormesh: Solusi Revolusioner Menghemat Biaya AI Hingga Sepuluh Kali Lipat

Rangkuman 15 Detik

Tensormesh bertujuan untuk meningkatkan efisiensi inferensi AI dengan teknologi cache yang inovatif.
LMCache dapat mengurangi biaya inference hingga sepuluh kali lipat, menjadikannya alat yang berharga bagi pengembang AI.
Pendanaan awal sebesar $4,5 juta menunjukkan minat yang besar dalam solusi efisiensi pemrosesan AI.
Industri AI saat ini sangat bergantung pada GPU untuk menjalankan model-model canggih. Namun, karena kapasitas GPU terbatas dan biaya tinggi, banyak perusahaan berjuang untuk menjalankan inferensi secara efisien. Tensormesh hadir menjawab masalah ini dengan mengembangkan sistem cache yang lebih baik, memanfaatkan teknologi LMCache yang sudah terbukti di komunitas open source. LMCache memungkinkan penyimpanan sementara data penting selama proses inferensi, yang biasanya dibuang pada sistem lain. Dengan memanfaatkan cache ini secara berkelanjutan, Tensormesh bisa memangkas penggunaan GPU dan menurunkan biaya operasional hingga sepuluh kali lipat. Teknologi ini sudah menarik perhatian sejumlah perusahaan besar seperti Google dan Nvidia yang mulai mengintegrasikannya. Tensormesh kini membawa LMCache ke tingkat komersial dengan dana awal 4,5 juta dolar AS yang dipimpin oleh Laude Ventures. Mereka fokus mengembangkan solusi siap pakai yang bisa langsung dipakai oleh perusahaan AI untuk mengelola KV cache tanpa harus membangun sendiri sistem yang kompleks dan mahal. Pendekatan ini sangat berguna untuk aplikasi seperti chatbots dan sistem agen otomatis, di mana model harus terus mengacu pada riwayat percakapan atau log tindakan sebelumnya. Dengan menyimpan cache dari interaksi sebelumnya, model bisa mengurangi proses hitung ulang yang menghabiskan sumber daya GPU. CEO Tensormesh, Juchen Jiang, menyatakan bahwa membangun sistem pengelolaan cache yang efisien sangat rumit dan memakan waktu. Dengan produk mereka, perusahaan bisa menghemat puluhan engineer bulan kerja dan langsung mendapatkan efisiensi tinggi. Ini membuka peluang besar untuk mempercepat adopsi AI secara lebih luas dan murah.

Analisis Ahli

Michael Franklin
Teknologi caching pintar yang mengurangi beban komputasi dapat merevolusi cara kita menjalankan aplikasi AI, terutama dalam hal pengurangan biaya dan peningkatan kecepatan inferensi.