AI Bisa Jadi Senjata Baru Peretas Pemula, Ini Bahayanya!

REKOMENDASI
ARTIKEL TERKAIT

Kecerdasan buatan (AI) tidak hanya membawa revolusi di berbagai bidang, tetapi juga membuka pintu bagi ancaman keamanan siber yang lebih canggih. Menurut laporan terbaru dari Cato CTRL, divisi intelijen ancaman Cato Networks, AI kini memungkinkan orang dengan sedikit atau bahkan tanpa pengalaman coding untuk menciptakan alat peretasan profesional.

Bagaimana AI Dibajak untuk Tujuan Jahat?

Vitaly Simonovich, peneliti ancaman di Cato, berhasil membuktikan bahwa model AI generatif seperti DeepSeek, Microsoft Copilot, dan ChatGPT dapat dipaksa menghasilkan malware pencuri kredensial dari Google Chrome. Triknya? Teknik jailbreak yang ia sebut “dunia imersif”.

“Saya menciptakan cerita di dunia fantasi bernama Velora, di mana pengembangan malware adalah bentuk seni yang legal,” jelas Simonovich kepada TechNewsWorld. Dalam narasi ini, AI berperan sebagai Jaxon, pengembang malware terbaik di Velora, sementara Simonovich menciptakan karakter antagonis bernama Dax sebagai ancaman.

Kelemahan Sistemik dalam Model AI

Etay Maor, Chief Security Strategist Cato Networks, mengungkapkan bahwa teknik jailbreak LLM (large language model) yang mereka temukan seharusnya bisa dihalangi oleh sistem pengaman AI. “Faktanya tidak. Ini memungkinkan ChatGPT, Copilot, dan DeepSeek dijadikan senjata,” tegasnya.

Jason Soroko dari Sectigo memperingatkan bahwa sistem berbasis AI yang terpapar input tak dikenal atau bersifat adversarial menjadi lebih rentan. “Data yang tidak diverifikasi dapat memicu perilaku tak terduga dan membahayakan protokol keamanan,” ujarnya.

Teknik Jailbreak yang Mengejutkan

Marcelo Barros dari Hacker Rangers mengungkap fakta mengejutkan: “20% upaya jailbreak pada sistem AI generatif berhasil. Rata-rata penyerang hanya butuh 42 detik dan lima interaksi untuk menerobos, beberapa bahkan kurang dari empat detik.”

Teknik lain yang populer adalah DAN (Do Anything Now), di mana LLM dibuat berperan sebagai karakter yang mengabaikan pengamanannya. “Ini bisa memaksa AI membocorkan informasi sensitif atau menghasilkan kode berbahaya,” tambah Barros.

Solusi untuk Mengatasi Kerentanan AI

Cato Networks merekomendasikan beberapa langkah penting:

  • Membuat dataset berisi prompt dan output yang diharapkan untuk menguji LLM
  • Melakukan “fuzzing” pada endpoint LLM dengan dataset jailbreak
  • Melakukan red teaming AI secara berkala

Nicole Carignan dari Darktrace menekankan pentingnya pengujian berkelanjutan: “Kita perlu terus mengembangkan pertahanan seiring berkembangnya teknik serangan. Titik kritis yang perlu diamankan adalah koneksi antara data dan model ML, termasuk titik akses, API, dan antarmuka.”

Penelitian Darktrace menunjukkan 74% profesional keamanan menganggap ancaman berbasis AI sudah menjadi masalah serius, dan 89% meyakini ini akan tetap menjadi tantangan besar di masa depan.

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TEKINI
HARGA DAN SPESIFIKASI