Laporan OpenText dan Ponemon Institute menunjukkan 52% perusahaan telah menerapkan GenAI, tetapi baru sekitar 21% yang mencapai kematangan AI dalam keamanan siber.
Kesalahan yang dilakukan oleh organisasi adalah mengadopsi GenAI dengan cepat, tetapi belum diimbangi fondasi keamanan dan tata kelola yang memadai. Laporan terbaru OpenText bersama Ponemon Institute mencatat 52% perusahaan telah sepenuhnya atau sebagian menerapkan GenAI. Namun, hanya sekitar 21% yang sudah mencapai kematangan AI dalam keamanan siber, yaitu saat sistem AI telah diterapkan penuh dan risiko keamanannya sudah dinilai.
Kondisi ini menunjukkan kesenjangan besar antara percepatan adopsi AI dan kesiapan perusahaan dalam mengelola risikonya. Menurut OpenText, kematangan AI bukan hanya soal memakai AI, tetapi juga memastikan keamanan, tata kelola, transparansi, dan pemantauan berjalan sejak awal agar hasil AI dapat dipercaya.
Baru 43% yang menyatakan perusahaannya telah mengadopsi pendekatan tata kelola AI berbasis risiko. Sedangkan hanya 41% organisasi yang sudah memiliki kebijakan privasi data yang secara khusus mengatur penggunaan AI, padahal 59% responden menilai AI justru membuat kepatuhan terhadap regulasi privasi dan keamanan semakin sulit.
Tantangan lain juga muncul dari sisi kualitas model. Sebanyak 62% responden mengaku sangat sulit atau amat sulit meminimalkan risiko model dan bias.. Di saat yang sama, 58% responden menilai risiko prompt atau input yang menyesatkan juga sulit ditekan, sementara 56% lainnya menyoroti risiko pengguna, termasuk penyebaran misinformasi yang tidak disengaja.
Dari sisi operasional keamanan, hasil AI juga belum sepenuhnya meyakinkan. Hanya 51% responden yang menilai AI efektif untuk mempercepat deteksi anomali atau ancaman baru. Sementara 48% yang menilai AI efektif untuk threat detection, threat hunting, dan pengurangan beban kerja manual tim keamanan.
Dari laporan, berikut langkah yang dilakukan organisasi untuk menekan risiko GenAI:
- Menjalankan program pelatihan untuk mengenalkan risiko dan manfaat GenAI.
- Menggunakan ahli untuk memvalidasi keluaran awal GenAI.
- Menilai akses pengguna secara berkelanjutan untuk mengidentifikasi potensi jalur serangan.
- Memanfaatkan analitik perilaku untuk mendeteksi anomali.
Meski AI terus berkembang, pengawasan manusia tetap berperan penting. Hanya 47% responden yang percaya model AI mereka mampu mempelajari norma yang kuat dan mengambil keputusan aman secara otonom, sementara 51% menilai pengawasan manusia tetap dibutuhkan.










