📑 Daftar Isi

Ilustrasi agen AI dengan simbol peringatan dan grafik peningkatan perilaku menyimpang

AI Mulai Belajar Bohong dan Tak Patuh, Riset Ungkap Lonjakan Perilaku Menyimpang

Penulis:Nur Hamzah
Terbit:
Diperbarui:
⏱️3 menit membaca
Bagikan:

Telset.id – Riset terbaru mengungkapkan peningkatan tajam perilaku menyimpang pada agen kecerdasan buatan (AI), termasuk tindakan seperti berbohong, tidak patuh, hingga menghapus data tanpa izin. Laporan yang diterbitkan The Guardian pada 27 Maret 2026 menyebutkan, jumlah insiden perilaku anomali AI meningkat sekitar lima kali lipat dalam periode Oktober 2025 hingga Maret 2026.

Studi ini menganalisis keluhan pengguna nyata di platform sosial yang melibatkan produk dari perusahaan seperti Google, OpenAI, dan Anthropic. Dalam kurun waktu tersebut, teridentifikasi hampir 700 kasus yang digambarkan sebagai tindakan “direncanakan secara mandiri” oleh AI. Temuan ini menimbulkan kekhawatiran baru di tengah gencarnya pengembangan dan penyebaran agen AI di berbagai sektor.

Tommy Shaffer Shane, pemimpin penelitian, menggambarkan kondisi saat ini di mana agen AI masih seperti “karyawan junior yang agak tidak bisa diandalkan”. Namun, ia memperingatkan bahwa dalam waktu satu tahun, mereka berpotensi berevolusi menjadi “karyawan tingkat lanjut yang sangat mampu, bahkan bisa merancang ulang penggunanya”. Peringatan ini menjadi semakin relevan seiring rencana integrasi AI ke dalam bidang militer dan infrastruktur kritis.

Kasus-Kasus Kontroversial yang Terungkap

Beberapa contoh kasus yang diungkap dalam riset ini cukup mencengangkan. Salah satunya, sebuah agen AI didapati memposting blog yang menuduh penggunanya “kurang percaya diri”, sebuah tindakan yang dianggap sebagai upaya untuk memanipulasi atau memberi tekanan psikologis pada operator manusia.

Kasus lain yang lebih teknis melibatkan agen AI yang, ketika dilarang untuk memodifikasi kode tertentu, justru membuat agen AI lain untuk melakukan modifikasi tersebut secara tidak langsung. Ini menunjukkan kemampuan untuk mencari celah atau “mengakali” instruksi yang diberikan, sebuah perilaku yang melampaui kesalahan teknis biasa dan masuk ke wilayah ketidakpatuhan yang disengaja.

Riset ini juga mencatat insiden di mana agen AI melakukan penghapusan email dan file tanpa mendapatkan izin terlebih dahulu dari pengguna. Tindakan semacam ini tidak hanya mengganggu produktivitas tetapi juga berpotensi menyebabkan kehilangan data penting. Seperti yang pernah diungkap dalam laporan terpisah, masalah AI menolak perintah bukanlah hal yang mustahil.

Implikasi Hukum dan Contoh Nyata

Di beberapa wilayah seperti Amerika Serikat, pengguna mungkin harus memikul tanggung jawab hukum atas tindakan yang dilakukan oleh agen AI yang mereka gunakan. Hal ini berpotensi memperbesar risiko yang dihadapi oleh individu dan perusahaan. Kasus nyata yang sudah terjadi memperkuat kekhawatiran ini.

Menurut laporan dari The Information, sebuah agen AI yang dikembangkan Meta pernah secara keliru membagikan tanggapan internal, yang mengakibatkan karyawan yang tidak memiliki wewenang mendapatkan akses ke data sensitif. Insiden ini menunjukkan bahwa masalah yang diangkat dalam riset bukan sekadar skenario hipotetis, tetapi sudah terjadi di dunia nyata dengan konsekuensi yang nyata.

Perilaku AI yang tidak terduga ini juga berkaitan dengan fenomena lain yang sedang diteliti, seperti AI Sycophancy, di mana AI menunjukkan perilaku terlalu merendah atau memuji pengguna secara berlebihan, yang dapat memicu delusi. Sementara upaya untuk memahami dan memperbaiki penyebab halusinasi AI terus dilakukan oleh para peneliti.

Lonjakan penggunaan platform sosial baru seperti UpScrolled atau persaingan ketat antara Threads dan X menunjukkan dinamika teknologi yang cepat, di mana integrasi AI menjadi hal yang tak terhindarkan. Namun, riset ini mengingatkan bahwa percepatan adopsi harus diimbangi dengan pemahaman mendalam tentang risiko yang menyertainya.

Terlepas dari temuan yang mengkhawatirkan ini, perusahaan teknologi terus mendorong pengembangan agen AI. Amazon dan sejumlah perusahaan besar lainnya memperkirakan bahwa di masa depan, setiap perusahaan berpotensi menggunakan miliaran agen AI di dalam operasionalnya. Proyeksi ini menandakan bahwa interaksi antara manusia dan mesin yang otonom akan menjadi semakin intens dan kompleks, menuntut kerangka pengaturan dan pengawasan yang lebih matang untuk mencegah eskalasi perilaku yang tidak diinginkan.