Meta mengembangkan chip AI internal MTIA untuk mempercepat sistem rekomendasi dan generative AI. Strategi ini memberi perusahaan kontrol lebih besar atas infrastruktur AI mereka.
Meta memperkuat infrastruktur AI mereka untuk mendukung berbagai layanan digital yang digunakan miliaran orang. Sistem rekomendasi konten, pemeringkatan informasi, hingga teknologi generative AI membutuhkan kapasitas komputasi yang sangat besar di pusat data.
Meta mengembangkan chip khusus bernama Meta Training and Inference Accelerator atau MTIA untuk memenuhi kebutuhan tersebut. Perangkat keras ini dirancang untuk menangani berbagai beban kerja AI internal secara lebih efisien dibandingkan perangkat komputasi umum.
MTIA menjadi bagian penting dari strategi Meta dalam mengurangi ketergantungan pada penyedia chip eksternal. Dengan mengembangkan silicon sendiri, perusahaan dapat menyesuaikan arsitektur komputasi secara langsung dengan kebutuhan sistem mereka.
Versi terbaru, MTIA 300, telah memasuki tahap produksi dan digunakan untuk menjalankan model pemeringkatan serta rekomendasi konten pada berbagai aplikasi Meta. Chip ini dirancang untuk meningkatkan efisiensi biaya dan konsumsi daya ketika memproses data dalam skala besar.
Meta juga merancang rencana jangka panjang pengembangan generasi berikutnya untuk memperluas kemampuan chip ini dalam mendukung berbagai beban kerja AI modern.
Generasi berikutnya seperti MTIA 400, 450, dan 500 diproyeksikan akan menghadirkan peningkatan signifikan pada bandwidth memori dan kemampuan pemrosesan data. Fokus utamanya adalah memperkuat kemampuan inferensi untuk model generative AI yang semakin kompleks.
Meta mempercepat siklus pengembangan hardware ini agar inovasi dapat diterapkan lebih cepat di pusat data mereka. Dengan desain modular, pembaruan teknologi dapat dilakukan tanpa mengganggu sistem produksi yang sudah berjalan.
Chip MTIA juga dirancang agar kompatibel dengan ekosistem perangkat lunak industri seperti PyTorch dan Triton. Pendekatan ini memudahkan integrasi chip ke dalam infrastruktur pusat data tanpa memerlukan perubahan besar pada sistem yang sudah ada.
Meski MTIA berperan penting dalam proses inferensi AI, Meta tetap menggunakan berbagai jenis hardware lain untuk memenuhi kebutuhan komputasi yang berbeda. Menurut perusahaan, tidak ada satu chip yang mampu menangani seluruh jenis workload AI secara optimal.




