
(Source: Microsoft)
Kecerdasan buatan (AI) menawarkan banyak potensi dalam bekerja dan belajar, namun penggunaannya juga memunculkan tantangan serius. Terutama terkait penyalahgunaan untuk menciptakan konten berbahaya, seperti gambar yang merugikan. Microsoft menyadari penyalahgunaan AI ini dan mengambil langkah tegas untuk memberantas aktivitas ilegal tersebut, sebagaimana terlihat dalam kasus hukum terbaru yang mereka ajukan melawan jaringan peretas AI yang menciptakan gambar-gambar merugikan.
Insiden spesifik yang memicu tindakan ini bermula ketika tim Microsoft mendeteksi penggunaan kunci akses unik milik pelanggan untuk generator gambar AI yang dicuri. Kode akses yang dicuri ini kemudian digunakan untuk melewati pengamanan dan membuat gambar-gambar yang sangat merugikan, termasuk gambar seksual dan kebencian terhadap selebriti, wanita, dan orang kulit berwarna. Masalah yang awalnya tampak terisolasi ini dengan cepat terungkap sebagai operasi yang lebih luas, dijalankan oleh jaringan yang menamakan diri Storm-2139. Kelompok ini disangka menawarkan skema hacking-as-a-service untuk mengakses platform AI.
Respons insiden dan teteksi AI Microsoft segera bertindak dengan mencabut kode akses yang dicuri. Namun, ketika semakin banyak kredensial curian muncul di forum online yang dikenal menyebarkan materi kebencian, masalah ini ditingkatkan menjadi respons keamanan di seluruh perusahaan. Ini menandai kasus hukum pertama Microsoft yang secara langsung bertujuan menghentikan individu dari menciptakan konten AI yang berbahaya.
“Kami menangani penyalahgunaan AI dengan sangat serius dan menyadari bahaya gambar yang kasar terhadap korban,” kata Phillip Misner, kepala tim respons insiden dan deteksi AI Microsoft.
Tim Digital Crimes Unit (DCU) Microsoft berhasil menyita sebuah situs web yang terkait dengan jaringan tersebut dan memblokir aktivitas mereka, sehingga memberikan tekanan signifikan yang mendorong anggota jaringan untuk saling membocorkan informasi, yang membantu penyelidik mengidentifikasi lebih banyak pelaku.
Dalam upaya membongkar operasi ini dan mencegah penyalahgunaan serupa di masa depan, para penyelidik Microsoft menganalisis ribuan prompt berbahaya yang digunakan para pelaku. Mereka menemukan bahwa para pelaku sengaja berupaya melewati filter keamanan Microsoft dengan berbagai cara, seperti mengganti kata kunci atau menggunakan notasi teknis. Upaya Microsoft memerangi penyalahgunaan gambar berbasis AI merupakan kelanjutan dari komitmen jangka panjang mereka terhadap keselamatan digital. Jauh sebelum era AI generatif, Microsoft telah aktif menghapus gambar intim non-konsensual dari platform dan hasil pencarian mereka sejak tahun 2015.
Melalui tindakan tegas seperti kasus Storm-2139, Microsoft tidak hanya menghentikan operasi kriminal tetapi juga mengirimkan pesan pencegahan yang jelas bahwa penyalahgunaan teknologi AI tidak akan ditoleransi.










