F5 meluncurkan BIG-IP v21.0 sebagai fondasi baru aplikasi dan keamanan untuk era AI, menghadirkan peningkatan throughput data, dukungan Model Context Protocol, kontrol terpadu, serta keamanan yang lebih kuat untuk hybrid dan multicloud.
Aplikasi berbasis kecerdasan buatan memerlukan pola pengiriman data yang berbeda secara fundamental. Data harus bergerak dengan throughput jauh lebih tinggi di seluruh storage, compute, cluster, dan cloud, sekaligus menjaga keamanan dan latensi rendah.
Namun, menurut F5 State of Application Strategy Report 2025, 94 persen organisasi menjalankan aplikasi di berbagai lingkungan. Artinya, sebagian besar perusahaan masih terjebak dalam tumpukan pengiriman yang tersebar dan infrastruktur luas yang tidak dirancang untuk volume data AI saat ini.
F5 meluncurkan BIG-IP v21.0 yang memperluas F5 Application Delivery and Security Platform (ADSP) dengan delivery engine yang dibuat khusus untuk beban kerja aplikasi modern. Tujuannya adalah mengurangi friksi operasional, mempercepat pergerakan data, serta meningkatkan performa dan ketahanan pada lingkungan hybrid dan multicloud.
“BIG-IP kini dirancang untuk era kecerdasan buatan (AI),” kata Kunal Anand, Chief Product Officer F5. “Kami menyediakan bagian yang paling menantang dari AI secara skala besar, yaitu mentransfer data ke dan dari model dengan kecepatan, integritas, dan kontrol. Dan kami melakukannya dengan seluruh stack BIG-IP, mulai dari pengiriman hingga keamanan, sekaligus meningkatkan kinerja dan throughput. Pelanggan dapat menjalankan beban kerja AI paling kritis mereka dengan percaya diri.”
BIG-IP v21.0
BIG-IP v21.0 memperkenalkan kemampuan tingkat produk yang secara langsung memperkuat pengiriman data AI, keamanan, dan skalabilitas.
1. Peningkatan AI Data Delivery
Versi baru ini mengoptimalkan performa dan menyederhanakan konfigurasi melalui integrasi S3 storage. Use case yang didukung mencakup secure ingestion untuk fine-tuning dan batch inference, high-throughput retrieval untuk RAG dan generasi embeddings, serta policy-driven model artifact distribution yang dilengkapi observability dan controlled egress dengan keamanan konsisten.
2. Dukungan Model Context Protocol (MCP)
BIG-IP v21.0 kini mendukung Model Context Protocol untuk mempercepat dan menskalakan AI workload. MCP memungkinkan komunikasi mulus antara model AI, aplikasi, dan sumber data, meningkatkan performa, mengamankan koneksi, dan menyederhanakan deployment di berbagai lingkungan.
3. Kinerja Control Plane yang Dimodernisasi
F5 juga meningkatkan performa control plane agar lebih andal dan lebih cepat dalam menangani perubahan konfigurasi pada portofolio hybrid berskala besar. Peningkatan ini sangat krusial bagi penyebaran AI skala besar yang membutuhkan configuration velocity tinggi.








