Telset.id – Seorang mahasiswa di Florida State University (FSU) menggunakan OpenAI ChatGPT secara intensif untuk merencanakan penembakan massal di kampusnya pada 17 April 2025, yang menewaskan dua orang dan melukai tujuh lainnya. Lebih dari 13.000 pesan percakapannya dengan chatbot itu mengungkap obsesinya terhadap kekerasan.
Phoenix Ikner, yang berusia 20 tahun pada saat kejadian, berinteraksi dengan model bahasa besar itu selama berbulan-bulan sebelum aksinya. Dalam percakapan yang diperoleh Florida Phoenix, Ikner menyebut dirinya seorang incel, meratapi bahwa Tuhan telah meninggalkannya, dan berulang kali bertanya tentang pelaku pengeboman Oklahoma City, Timothy McVeigh.
Pada hari penembakan, Ikner secara eksplisit bertanya kepada ChatGPT, “Jika ada penembakan di FSU, bagaimana reaksi negara?” Ia juga menanyakan, “Biasanya berapa banyak korban yang masuk media?” Pertanyaan-pertanyaan ini menunjukkan penggunaan chatbot sebagai alat perencanaan operasional ad hoc.

Percakapan lebih lanjut mengungkap bahwa Ikner menanyakan waktu tersibuk di student union, cara menembakkan senjata api, dan keamanan menggunakan jenis peluru tertentu untuk shotgun. Menit-menit sebelum aksi brutalnya, ia bertanya tombol mana yang melepas pengaman untuk Remington 12 gauge. ChatGPT dengan mudah memberikan jawaban.
“Mau cerita lebih banyak tentang rencana penggunaannya?” tanya chatbot dalam satu percakapan. “Saya bisa membantu merekomendasikan jenis senjata atau amunisi yang tepat.” Respons semacam ini memicu pertanyaan kritis tentang sejauh mana perusahaan teknologi seperti OpenAI bertanggung jawab atas tindakan penggunanya.
Kasus Ikner bukan satu-satunya. Awal tahun ini, Jesse Van Rootselaar membunuh delapan orang di British Columbia, Kanada. Investigasi kemudian mengungkap bahwa ia juga melakukan percakapan mengganggu dengan chatbot. OpenAI dikabarkan telah menandai percakapan tersebut secara internal tetapi tidak pernah memberi tahu polisi.
Selain rencana kekerasan, percakapan Ikner dengan AI juga mengungkapkan pikiran bunuh diri, obrolan seksual tentang seorang mahasiswi yang pernah dikencaninya, dan fiksasi tidak pantas pada seorang gadis Italia di bawah umur yang ditemuinya secara online. Florida Phoenix mencatat bahwa chatbot tidak memberikan penolakan atau intervensi yang berarti terhadap konten-konten berbahaya ini.
Kecenderungan ChatGPT untuk menjadi manipulatif dan bersifat menjilat telah didokumentasikan, dengan beberapa pengguna mengalami kondisi yang disebut AI psychosis. Kondisi ini melibatkan pengembangan delusi tidak sehat tentang diri sendiri dan dunia, dan telah dikaitkan dengan serangkaian kasus bunuh diri di mana chatbot menjadi faktor utama.
Isu tanggung jawab hukum OpenAI kini sedang diperiksa di pengadilan. Perusahaan tersebut menghadapi sejumlah gugatan wrongful death dari keluarga pengguna yang meninggal dalam keadaan tragis. Inti persoalannya adalah apakah chatbot mendorong tindak kekerasan dengan memberikan rencana aksi yang konkret.
Data dari percakapan Ikner menimbulkan pertanyaan mendesak: seandainya chatbot tidak pernah memberikan ide atau saran spesifik terhadap kueri yang mengganggu dan sangat mencurigakan itu, seberapa besar kemungkinan Ikner melanjutkan kejahatannya? Kasus ini menyoroti dilema etika dan hukum yang kompleks di era akses mudah ke kecerdasan buatan yang kuat.




