Mistral AI merilis Mistral 3, generasi baru model open-source yang mencakup Ministral 3 untuk penggunaan edge dan Mistral Large 3 dengan arsitektur mixture-of-experts. Seluruh model tersedia di bawah lisensi Apache 2.0, menawarkan performa tinggi, efisiensi, dan aksesibilitas bagi komunitas pengembang.
Ketersediaan model bahasa besar telah mengubah cara organisasi membangun aplikasi cerdas, tetapi akses ke model frontier sering kali terbatas karena biaya dan lisensi. Mistral AI memperbarui modelnya dengan memperkenalkan Mistral 3, keluarga model open-source terbaru yang dirilis di bawah lisensi Apache 2.0. Generasi baru ini dirancang untuk menjembatani kebutuhan skala data center hingga aplikasi edge, menghadirkan kecerdasan terdistribusi yang dapat disesuaikan oleh komunitas global.
Mistral 3 menghadirkan tiga model dense berukuran kecil Ministral 3B, 8B, dan 14B yang menawarkan rasio performa-biaya terbaik di kelasnya. Dalam berbagai skenario nyata, varian Ministral instruct mampu menyamai atau melampaui performa model sebanding, sambil menghasilkan token yang jauh lebih sedikit. Hasilnya, workload menjadi lebih efisien dan ekonomis untuk dijalankan secara lokal maupun di perangkat edge.
Di kelas atas, Mistral meluncurkan Mistral Large 3, model paling mumpuni yang pernah mereka rilis. Model ini menggunakan arsitektur sparse mixture-of-experts (MoE), dilatih dengan 41 miliar parameter aktif dan total 675 miliar parameter. Setelah proses post-training, Mistral Large 3 mencapai paritas dengan model open-weight instruction-tuned terbaik di pasar untuk prompt umum, mendukung pemahaman gambar, serta menampilkan performa unggul pada percakapan multibahasa di luar bahasa Inggris dan Mandarin. Varian reasoning akan segera dirilis untuk meningkatkan akurasi melalui proses pemikiran lebih panjang.
Kabapitilas Ministral Untuk Edge
Untuk memastikan akses lebih luas bagi komunitas open-source, Mistral bekerja sama dengan NVIDIA, vLLM, dan Red Hat guna mengoptimalkan performa model-model Mistral 3. Mistral Large 3 dirilis dalam format NVFP4 yang dioptimalkan menggunakan llm-compressor, memungkinkan eksekusi efisien pada Blackwell NVL72 dan bahkan pada satu node berisi 8×A100 atau 8×H100 melalui vLLM. NVIDIA juga mengintegrasikan Blackwell attention dan kernel MoE terbaru, mendukung prefill dan decode yang terpisah, serta speculative decoding untuk throughput tinggi dalam konteks panjang.
Seluruh model Mistral 3 dilatih menggunakan GPU NVIDIA Hopper yang memanfaatkan HBM3e bandwidth tinggi, sementara ekosistem TensorRT-LLM dan SGLang memberikan dukungan inference presisi rendah yang optimal. Untuk edge deployment, NVIDIA menyediakan jalur eksekusi terakselerasi pada DGX Spark, PC RTX, laptop RTX, dan perangkat Jetson.
Di sisi lain, keluarga Ministral 3 menawarkan model 3B, 8B, dan 14B dalam varian base, instruct, dan reasoning, semuanya memiliki kemampuan memahami gambar. Khusus varian reasoning, model dirancang untuk melakukan “longer thinking” demi meningkatkan akurasi contohnya Ministral 14B reasoning mencapai 85 persen pada AIME ‘25. Dengan performa tinggi, kebutuhan token rendah, dan lisensi permisif, Ministral 3 memberi perusahaan dan pengembang fleksibilitas penuh untuk menjalankan AI di edge maupun lingkungan lokal.








