AI Jadi Senjata Bagi Hacker

(Source: Freepik)

Selama ini, narasi seputar AI dalam keamanan siber seringkali berfokus pada kemampuan defensifnya. Meskipun AI memang merevolusi cara organisasi melindungi diri membawa kecepatan, akurasi, dan otomatisasi yang belum pernah terjadi sebelumnya sangat penting untuk mengakui sisi lain dari koin ini. Para pelaku kejahatan siber dengan cepat merangkul AI, menggunakan model bahasa besar (LLM) dan AI agentik canggih untuk menciptakan serangan yang lebih kuat dan sulit dideteksi.

Serangan siber berbasis AI

Ancaman AI ofensif kini tidak lagi teoretis, melainkan platform yang dirancang untuk tujuan jahat. Contohnya adalah munculnya Large Language Models (LLM) berbahaya seperti WormGPT dan Xanthorox AI. WormGPT, yang didasarkan pada model GPT-J, dipasarkan sebagai alternatif blackhat, menawarkan fitur yang disesuaikan untuk aktivitas berbahaya, dan dilaporkan dilatih pada data terkait malware. Meskipun penciptanya telah menghentikan operasinya, dampak buruknya sudah menyebar. Kita melihat tren alat AI ofensif, termasuk BurpGPT, PentestGPT, FraudGPT, dan PassGPT, dengan rencana untuk model yang lebih canggih seperti EvilGPTWeb3.

Xanthorox AI, yang muncul pada Kuartal 1 tahun 2025, seperti yang dipantau oleh Check Point, menandai lompatan signifikan. Berbeda dari versi sebelumnya, ini adalah sistem modular otonom yang dibangun dari awal dan beroperasi sepenuhnya offline untuk meningkatkan anonimitas dan ketahanan. Lima model AI khusus Xanthorox Coder, V4 Model, Xanthorox Vision, Xanthorox Reasoner Advanced, dan Fifth Coordination Module bekerja sama untuk mengotomatisasi pengembangan malware, pengintaian, rekayasa sosial, dan serangan terkoordinasi tanpa pengawasan eksternal. Ini bukan hanya LLM ini adalah AI agentik, yang menandakan pergeseran logis dan mengkhawatirkan dalam perangkat kejahatan siber.

Serangan phishing kini semakin canggih berkat AI. Pelaku ancaman memanfaatkan teknik prompt injection pada Large Language Models (LLM) yang sah untuk menciptakan konten phishing yang jauh lebih meyakinkan, diluncurkan lebih cepat, dan dengan tingkat personalisasi yang mengkhawatirkan. Pada tahun 2024, 67,4% insiden phishing global telah melibatkan taktik AI, dengan industri keuangan menjadi target utama. AI memungkinkan penyerang membuat kampanye yang sangat personal dan persuasif, termasuk serangan spear-phishing, deepfake, dan teknik rekayasa sosial tingkat lanjut.

Efek dari serangan siber berbasis AI

Dampak paling langsung dari perkembangan AI terlihat pada email phishing itu sendiri. Kini, email yang dihasilkan AI seringkali tidak dapat dibedakan dari komunikasi korporat yang sah, tak seperti dulu yang mudah dikenali dari kesalahan tata bahasa dan ejaan. Kecepatan pembuatan dan personalisasi ini sangat ditingkatkan oleh Large Language Models (LLM), memungkinkan serangan diluncurkan dan diskalakan dengan cepat. Sebuah studi tahun 2024 menemukan bahwa email phishing yang sepenuhnya dihasilkan AI mencapai tingkat klik 54% dalam studi subjek manusia, peningkatan 350% dibandingkan email phishing biasa. Contoh nyata yang mengerikan terjadi pada Februari 2024, ketika cabang Hongaria sebuah perusahaan multinasional kehilangan $25 juta karena penipuan video deepfake. Penyerang menggunakan video deepfake yang dihasilkan AI untuk meniru CFO perusahaan dan karyawan lainnya selama panggilan video conference, mengeksploitasi dinamika kelompok untuk menghilangkan keraguan seorang pekerja keuangan.

Peran AI dalam phishing tidak terbatas pada pembuatan konten dan deepfake. Analisis data bertenaga AI memungkinkan penyerang untuk mengumpulkan dan menganalisis dataset besar dari media sosial, catatan publik, dan basis data yang diretas dengan kecepatan yang belum pernah terjadi sebelumnya. Ini memfasilitasi kampanye spear-phishing yang sangat bertarget dan disesuaikan dengan individu atau organisasi tertentu. Selain itu, AI dapat memprediksi perilaku korban dan mengoptimalkan waktu serangan.