Telset.id – Jika Anda berpikir kode yang dihasilkan AI selalu aman dan andal, siap-siap terkejut. Penelitian terbaru mengungkap bahwa kode buatan AI sering kali mengandung referensi ke pustaka pihak ketiga yang tidak ada, membuka peluang besar bagi serangan berbahaya pada rantai pasok perangkat lunak.
Studi yang dilakukan oleh para peneliti dari University of Texas di San Antonio menemukan bahwa dari 576.000 sampel kode yang dihasilkan oleh 16 model bahasa besar (LLM), sebanyak 440.000 dependensi yang terkandung di dalamnya ternyata “berhalusinasi”—artinya, mereka merujuk pada pustaka yang tidak ada. Fenomena ini, yang disebut sebagai “package hallucination”, menjadi ancaman serius bagi keamanan perangkat lunak modern.
Dependensi Palsu: Pintu Masuk Serangan Berbahaya
Dependensi adalah komponen penting dalam pengembangan perangkat lunak modern. Mereka memungkinkan pengembang untuk menggunakan kode yang sudah ada tanpa harus menulis ulang dari awal. Namun, ketika AI menghasilkan referensi ke dependensi yang tidak ada, hal ini menciptakan celah keamanan yang bisa dimanfaatkan oleh penjahat siber.
Joseph Spracklen, mahasiswa PhD yang memimpin penelitian ini, menjelaskan: “Begitu penyerang menerbitkan paket dengan nama yang dihalusinasikan dan menyisipkan kode berbahaya, mereka bisa menunggu pengguna yang tidak curiga menginstalnya. Jika pengguna mempercayai output AI tanpa verifikasi, payload berbahaya akan dieksekusi di sistem mereka.”
Baca Juga:
Package Hallucination: Masalah yang Berulang
Yang lebih mengkhawatirkan, penelitian ini menemukan bahwa 58% dari nama paket yang dihalusinasikan muncul lebih dari sekali dalam 10 iterasi. Artinya, halusinasi ini bukan kesalahan acak, melainkan pola yang konsisten. Penyerang bisa memanfaatkan pola ini dengan menerbitkan paket berbahaya menggunakan nama-nama yang sering dihalusinasikan oleh AI.
Fenomena ini mengingatkan pada serangan “dependency confusion” yang pertama kali didemonstrasikan pada 2021. Serangan tersebut berhasil mengeksekusi kode palsu di jaringan perusahaan-perusahaan besar seperti Apple, Microsoft, dan Tesla. Kini, dengan maraknya penggunaan AI untuk menghasilkan kode, ancaman ini menjadi semakin nyata.
Perbedaan Antara Model Komersial dan Open Source
Penelitian ini juga mengungkap perbedaan mencolok antara model AI komersial dan open source. Model open source seperti CodeLlama dan DeepSeek menghasilkan hampir 22% package hallucination, sementara model komersial hanya sekitar 5%. Selain itu, kode JavaScript cenderung lebih banyak mengandung halusinasi (21%) dibandingkan Python (16%).
Spracklen menjelaskan bahwa perbedaan ini mungkin disebabkan oleh kompleksitas ekosistem JavaScript yang memiliki sekitar 10 kali lebih banyak paket dibanding Python. “Dengan lanskap paket yang lebih besar dan kompleks, model menjadi lebih sulit untuk mengingat nama paket tertentu secara akurat,” ujarnya.
Sebagaimana dilaporkan dalam OpenAI Rilis ChatGPT Model “o1” dengan Akurasi Lebih Tinggi, upaya untuk meningkatkan akurasi AI terus dilakukan. Namun, temuan ini menunjukkan bahwa masalah halusinasi masih menjadi tantangan besar.
Dengan prediksi bahwa 95% kode akan dihasilkan oleh AI dalam lima tahun mendatang, seperti yang diungkapkan oleh CTO Microsoft Kevin Scott, temuan ini menjadi peringatan keras bagi para pengembang. Sebelum benar-benar mempercayai kode yang dihasilkan AI, verifikasi manual terhadap setiap dependensi tetap menjadi keharusan.
Seperti yang terjadi pada kasus AI Ciptakan Kebijakan Palsu, ketergantungan berlebihan pada teknologi AI tanpa pengawasan manusia bisa berakibat fatal. Kini, lebih dari sebelumnya, kolaborasi antara kecerdasan buatan dan keahlian manusia menjadi kunci untuk menciptakan perangkat lunak yang aman dan andal.