Model Edge Liquid AI Berjalan Di Prosesor Apa Pun

(Source: Freepik)

Meskipun large language model berbasis cloud telah mendominasi lanskap kecerdasan buatan (AI), terdapat kebutuhan yang terus berkembang akan model-model yang lebih ringkas. Kebutuhan ini sangat terasa dalam skenario edge computing dan perangkat terbatas sumber daya, di mana latensi milidetik, ketahanan offline, dan privasi data yang berdaulat menjadi krusial. Perangkat seperti ponsel, laptop, mobil, robot, perangkat wearable, dan satelit memerlukan kemampuan penalaran real-time tanpa harus selalu bergantung pada koneksi cloud yang jauh.

Model Open Source Terbaru Dari Liquid AI

Liquid AI telah merilis Liquid Foundation Models (LFM2) generasi berikutnya, terobosan signifikan dalam kelas model edge. LFM2 memecahkan rekor baru dalam kecepatan, efisiensi energi, dan kualitas. Model-model ini kini tersedia secara open source di Hugging Face, dan juga dapat diuji melalui Liquid Playground. Pendekatan Liquid AI ini didasarkan pada desain model dari prinsip pertama, membedakannya dari model berbasis transformer tradisional.

Tidak seperti model konvensional, LFM2 terdiri dari operator adaptif yang terstruktur. Desain ini memungkinkan pelatihan yang lebih efisien, inferensi yang lebih cepat, dan generalisasi yang lebih baik. Keunggulan ini sangat menonjol dalam skenario konteks panjang atau lingkungan dengan sumber daya terbatas.

Ramin Hasani, salah satu pendiri dan CEO Liquid AI, mengatakan, “Rangkaian model LFM2 dirancang, dikembangkan, dan dioptimalkan untuk penggunaan di perangkat pada prosesor apa pun, yang benar-benar membuka aplikasi AI generatif dan agentic di edge. LFM2 adalah yang pertama dari rangkaian model-model canggih yang akan kami rilis dalam beberapa bulan mendatang.”

Peluncuran LFM2 menandai tonggak penting dalam persaingan AI global. Ini adalah kali pertama perusahaan AS secara publik menunjukkan peningkatan efisiensi dan kualitas yang jelas dibandingkan model bahasa kecil open-source terkemuka dari Tiongkok, termasuk yang dikembangkan oleh Alibaba dan ByteDance. Dalam evaluasi langsung, model LFM2 mengungguli pesaing dalam metrik kecepatan, latensi, dan kemampuan mengikuti instruksi.

Spesifikasi LFM2 Dari Liquid AI 

Secara spesifik, LFM2 menunjukkan throughput 200 persen lebih tinggi dan latensi lebih rendah dibandingkan Qwen3, Gemma 3n Matformer, serta semua model autoregressive berbasis transformer dan non-transformer lainnya yang tersedia saat ini, pada CPU. Model ini tidak hanya yang tercepat, tetapi juga secara rata-rata berkinerja lebih baik secara signifikan daripada model di setiap kelas ukuran dalam hal kemampuan mengikuti instruksi dan function calling, yang merupakan atribut utama LLM dalam membangun agen AI yang andal.

Selain itu, LFM yang dibangun berdasarkan arsitektur dan infrastruktur pelatihan baru menunjukkan peningkatan efisiensi pelatihan 300 persen dibandingkan versi LFM sebelumnya. Hal ini menjadikannya cara paling hemat biaya untuk membangun sistem AI serbaguna yang mumpuni. Transformasi model generatif besar dari cloud yang jauh menjadi LLM yang ramping dan berada di perangkat, membuka peluang latensi milidetik, ketahanan offline, dan privasi data yang berdaulat. Fitur ini sangat penting untuk perangkat yang membutuhkan penalaran real-time. Ini memberikan kesempatan bagi Liquid AI untuk memperoleh pangsa pasar yang besar seiring perusahaan beralih dari LLM cloud ke intelijen yang hemat biaya, cepat, pribadi, dan on-premise.