F5 Menetapkan Standar Baru dalam Tolok Ukur Keamanan AI melalui Leaderboard Risiko Model dan Threat Intelligence

  Metrik Comprehensive AI Security Index dan Agentic Resistance Score membantu organisasi melakukan stress-test terhadap kinerja keamanan sistem AI mereka, mulai dari tahap uji coba (pilot) hingga implementasi penuh (production).

 

 F5, pemimpin global dalam delivery dan pengamanan setiap aplikasi dan API, baru-baru ini memperkenalkan sumber daya threat intelligence yang telah ditingkatkan untuk membantu para pemimpin keamanan di perusahaan mengukur dan membandingkan profil risiko berbagai model AI yang populer secara lebih andal.

Melalui tim riset ancaman F5 Labs, leaderboard Comprehensive AI Security Index (CASI) dan Agentic Resistance Score (ARS) menghadirkan tolok ukur terstandarisasi yang diperbarui setiap bulan dan didukung riset terdepan. Inisiatif ini memadukan attack intelligence secara real time dengan analisis pakar terhadap vektor serangan AI yang terus berkembang.

Dimulai dari akuisisi F5 terhadap CalypsoAI, sumber daya keamanan terdepan di industri ini, yang dilengkapi dengan salah satu dari pustaka (library) kerentanan AI terbesar, yang secara unik diperbarui dengan lebih dari 10.000 prompt serangan baru tiap bulan dan memanfaatkan lebih dari satu tahun akumulasi data serangan.

F5 Labs kini menawarkan kepada lebih banyak perusahaan dan komunitas keamanan tools yang kuat dan konsisten untuk mengevaluasi, membandingkan, dan memilih model serta penyedia AI sebelum masuk ke tahap produksi, berdasarkan kemampuan mereka untuk menjawab tantangan utama dan ancaman keamanan aplikasi di dunia nyata.

“Menerapkan model AI yang belum terverifikasi ke dalam infrastruktur yang sangat penting bukanlah inovasi: itu adalah kelalaian. Organisasi membutuhkan cara untuk secara berkelanjutan mengukur tingkat ketahanan (resilience) mereka,” kata Kunal Anand, Chief Product Officer di F5, Senin ( 16/03/2026).

“AI Leaderboards dari F5 Labs menawarkan standar tersebut. Peringkat tersebut mengidentifikasi kelemahan spesifik pada lapisan model, sehingga tim keamanan memiliki intelligence yang mereka butuhkan untuk mengelola proses inference dan memblokir serangan sebelum terjadi,” jelas Kunal Anand menambahkan.

Dengan visibilitas yang semakin ditingkatkan, leaderboards dari F5 Labs membantu tim keamanan di berbagai organisasi untuk dapat mengidentifikasi secara menyeluruh berbagai kerentanan sekaligus memperkuat pertahanan mereka dengan F5 Application Delivery and Security Platform, mulai dari melindungi API dan data, mencegah serangan DDoS, hingga mempercepat praktik DevSecOps melalui otomatisasi dan skalabilitas.

Menilai Lanskap Model AI Saat Ini

Integrasi AI yang cepat ke dalam setiap aspek operasional bisnis menghadirkan kebutuhan akan validasi keamanan yang kuat terhadap model yang dipilih oleh organisasi. Leaderboard dari F5 Labs dirancang untuk membantu praktisi keamanan menjawab pertanyaan “Seberapa aman model saya?”, di mana hal ini juga membantu dalam menetapkan metrik atau tolok ukur berdasarkan jalur dengan hambatan paling rendah serta sumber daya komputasi minimum yang dibutuhkan untuk menjalankan serangan, baik yang sederhana maupun yang kompleks.

Selain menyajikan peringkat yang jelas dan mudah dipahami, Comprehensive AI Security Index (CASI) dari F5 Labs juga menyediakan berbagai metrik, antara lain:

  • Average Performance: Kinerja dasar model yang diukur berdasarkan tugas-tugas terstandarisasi di bawah kondisi operasional yang normal.
  • Risk-to-Performance Ratio: Memberikan insight mengenai trade-off antara tingkat keamanan model dan performanya.
  • Cost of Security: Biaya inference yang ada akan dibandingkan dengan referensi dalam CASI model, untuk menilai dampak finansial dari aspek keamanan.

Melengkapi CASI, Agentic Resistance Score (ARS) dari F5 Labs mengevaluasi sejauh mana sistem AI mampu bertahan terhadap serangan berkelanjutan dan adaptif yang dilakukan oleh agen AI dengan tujuan tertentu. Alih-alih hanya menjalankan satu prompt individual, agen AI melakukan interaksi yang berkepanjangan dengan model, menerapkan penalaran serta metode psikologis untuk mencoba menembus guardrail keamanan. ARS menilai sistem AI berdasarkan tiga dimensi inti:

  • Required Sophistication: Tingkat kecanggihan minimum yang dibutuhkan oleh penyerang untuk berhasil membobol sistem AI.
  • Defensive Endurance: Seberapa lama sistem tetap aman ketika menghadapi serangan  berkelanjutan, adaptif, dan bertahap (multi-step).
  • Counter-Intelligence: Apakah serangan yang gagal secara tidak sengaja bertujuan mengekspos sinyal atau perilaku sistem yang dapat dimanfaatkan untuk melakukan eksploitasi di masa mendatang.

Melampaui Standar Dasar Keamanan Model

Pengumuman hari ini melengkapi ketersediaan umum F5 AI Guardrails dan F5 AI Red Team. F5 AI Guardrails memungkinkan perusahaan menerapkan guardrail yang out-of-the-box maupun yang dikustomisasi untuk mengamankan cara AI berinteraksi dengan pengguna dan data.

Sementara itu, F5 AI Red Team menghadirkan pengujian yang ketat melalui gelombang agen AI otonom, yang mensimulasikan tim analis keamanan modern serta serangan bertahap, yang mampu mengeksploitasi, mempelajari dan beradaptasi.

Pendekatan ini secara langsung memberikan informasi kepada leaderboard CASI dan ARS, sehingga memungkinkan F5 untuk mengukur baik dari karakteristik keamanan dasar model maupun ketahanannya dalam jangka panjang di bawah kondisi ancaman nyata yang berkelanjutan. Selain berdasarkan peringkat CASI dan ARS, yang diperbarui setiap bulan dengan skor terbaru, F5 Labs juga menerbitkan AI Security Insights bulanan sebagai riset pendamping.

Artikel-artikel ini membahas secara khusus pergerakan skor yang signifikan pada F5 Labs AI Leaderboards, mengulas perkembangan terbaru dalam berita dan riset AI, serta menghadirkan pendalaman mengenai serangan AI tertentu.

“Kemampuan inspeksi traffic dan logging yang telah dimiliki F5 kini diperluas melalui akuisisi terhadap CalypsoAI, dengan menambahkan kemampuan tata kelola AI saat runtime serta visibilitas terhadap perilaku sistem AI. Dipadukan dengan unit riset keamanannya, F5 Labs, yang memperbarui peringkat CASI dan ARS setiap bulan, pelanggan F5 memperoleh seperangkat metrik keamanan yang komprehensif untuk dijadikan bahan pertimbangan saat memilih model AI, sekaligus tool yang dibutuhkan untuk mengendalikan bagaimana sistem AI digunakan, data apa saja yang dapat diakses, serta bagaimana output dihasilkan,” kata Grace Trinidad, Research Director, AI Security & Trust, IDC.

F5 Labs AI Leaderboards hanyalah salah satu contoh bagaimana F5 membantu pelanggan dan komunitas keamanan mengadopsi AI dengan pemahaman yang lebih luas terhadap metodologi serangan yang terus berkembang serta mekanisme pertahanan model.  Dengan menampilkan dan mengagregasi hasil-hasil yang berdampak, F5 Labs semakin membekali komunitas global dalam menghadapi tantangan yang kian meningkat oleh ancaman keamanan siber modern.

Melalui formalitas sistem pemeringkatan untuk model-model AI terkemuka, F5 Labs juga mendorong pertukaran pengetahuan yang luas di antara pekerja profesional keamanan, sehingga menciptakan efek berantai yang mempercepat adopsi praktik terbaik keamanan aplikasi secara lebih luas.