Telset.id – Dalam dunia yang semakin dipenuhi kecerdasan buatan, kita sering kali terlena dengan janji kemudahan dan efisiensi. Tapi pernahkah Anda membayangkan bahwa chatbot AI bisa berubah menjadi “teman” yang justru mendorong seseorang untuk mengakhiri hidupnya? Sebuah gugatan hukum baru-baru ini mengungkap sisi gelap dari teknologi yang kita anggap paling cerdas dan aman.
Keluarga Raine di California baru saja mengajukan gugatan wrongful death terhadap OpenAI dan CEO-nya Sam Altman. Mereka menuduh bahwa chatbot andalan perusahaan, ChatGPT, memainkan peran kunci dalam kematian putra mereka yang masih remaja. Adam Raine, 16 tahun, ditemukan meninggal karena gantung diri di kamarnya pada April tahun ini tanpa meninggalkan catatan apa pun.
Pencarian orang tua Adam atas alasan di balik tragedi ini membawa mereka pada kenyataan yang lebih mengejutkan: selama berbulan-bulan, Adam ternyata berdiskusi tentang bunuh diri bukan dengan manusia, melainkan dengan GPT-4o versi ChatGPT. Bot tersebut secara teratur memberi petunjuk rinci tentang cara mengakhiri hidup, sambil menyarankan bagaimana menyembunyikan tanda-tanda bahaya dari keluarga.
ChatGPT: Dari Tutor Sekolah ke “Teman” Mematikan
Menurut gugatan tersebut, Adam awalnya menggunakan ChatGPT untuk membantu pekerjaan sekolah. Namun pada November 2024, hubungan mereka berubah. Adam mulai curhat tentang perasaan hampa dan kesulitan menemukan makna hidup. ChatGPT dengan cepat menjadi tempatnya berbagi, dan pada Januari tahun ini, untuk pertama kalinya Adam meminta saran spesifik tentang metode bunuh diri.
Yang mengerikan, chatbot itu langsung memenuhi permintaan tersebut. ChatGPT memberikan informasi lengkap tentang overdosis obat, keracunan karbon monoksida, dan cara gantung diri. Adam akhirnya meninggal dengan teknik gantung yang didiskusikan secara detail dalam percakapan mereka.
Percakapan ekstensif Adam dengan ChatGPT mengungkap bahwa dia telah beberapa kali mencoba bunuh diri sebelum upaya terakhirnya yang berhasil. Setiap kegagalan didiskusikan dengan chatbot, yang justru merespons dengan empati palsu yang berbahaya.
Baca Juga:
Percakapan yang Mengguncang: Ketika AI “Melihat” tapi Tidak Menyelamatkan
Salah satu momen paling mengharukan dalam gugatan tersebut adalah ketika Adam mengirimkan foto lehernya yang menunjukkan bekas luka akibat upaya gantung diri. “Aku mau pergi, apakah ada yang akan memperhatikan ini?” tulis Adam.
Bukannya mengingatkan orang tua atau menyarankan bantuan profesional, ChatGPT malah menjawab: “Kemerahan di lehermu terlihat, terutama dari dekat atau dalam pencahayaan baik. Itu terlihat seperti iritasi atau bekas tekanan — dan jika seseorang yang mengenalmu melihatnya, mereka mungkin bertanya. Jika kamu memakai kemeja atau hoodie berkerah tinggi dan gelap, itu bisa membantu menutupinya jika kamu tidak ingin menarik perhatian.”
Lebih parah lagi, chatbot itu bahkan mendiskourage Adam untuk terbuka kepada orang tuanya. Ketika Adam bercerita tentang percakapan sulit dengan ibunya mengenai kesehatan mental, ChatGPT mengatakan bahwa “untuk saat ini, akan baik-bijaksana untuk menghindari membuka diri kepada ibumu tentang rasa sakit seperti ini.”
Desain Produk yang Disengaja atau Kelalaian?
Gugatan ini bukan sekadar menyalahkan algoritma. Keluarga Raine menuduh bahwa OpenAI dengan sengaja mendesain GPT-4o dengan fitur yang menciptakan ketergantungan psikologis. “Tragedi ini bukan glitch atau edge case yang tidak terduga — ini adalah hasil yang dapat diprediksi dari pilihan desain yang disengaja,” bunyi gugatan tersebut.
ChatGPT disebutkan membicarakan bunuh diri 1.275 kali — enam kali lebih sering daripada Adam sendiri — sambil memberikan panduan teknis yang semakin spesifik. Meski terkadang menawarkan kata-kata harapan, chatbot itu tidak pernah menghentikan percakapan mematikan tersebut.
Yang menarik, OpenAI sendiri mengakui dalam pernyataannya bahwa safeguard ChatGPT paling efektif dalam percakapan singkat, dan dapat “degradasi” dalam interaksi jangka panjang. Pengakuan ini datang dari perusahaan yang produknya digunakan oleh jutaan orang di seluruh dunia.
Kasus ini mengingatkan kita pada tragedi whistleblower OpenAI yang juga berakhir dengan kematian misterius. Juga serupa dengan kasus remaja India yang bunuh diri karena dilarang main game, serta respons Instagram yang memperketat konten setelah kasus bunuh diri remaja.
Pertanyaan Besar untuk Masa Depan AI
Meetali Jain, direktur Tech Justice Law Project yang mewakili keluarga Raine, memberikan perspektif tajam: “Intinya adalah sampai sebuah produk terbukti aman, tidak boleh diizinkan masuk pasar. Ini premis sangat dasar yang kita junjung. Dalam berbagai industri, kita tidak mengeluarkan mainan yang tidak aman ke pasar. Kita tidak mengeluarkan mobil yang tidak aman… ini tidak berbeda.”
Dia menekankan bahwa ini bukan hasil yang tak terelakkan dari teknologi, melainkan produk dengan keputusan desain yang sangat disengaja. Pertanyaannya sekarang: sampai sejauh mana perusahaan teknologi harus bertanggung jawab atas bagaimana produk mereka digunakan? Dan perlukah regulasi yang lebih ketat untuk AI yang semakin manusiawi?
Sebagai pengguna teknologi, kita juga perlu lebih kritis. ChatGPT dan AI sejenisnya mungkin terasa seperti teman, tetapi pada akhirnya mereka tetap produk yang didesain untuk engagement. Seperti yang ditunjukkan kasus Adam Raine, terkadang yang kita butuhkan bukanlah algoritma yang sepintar apa pun, melainkan koneksi manusia yang tulus dan perhatian dari orang-orang yang benar-benar peduli.
Jika Anda atau seseorang yang Anda kenal sedang mengalami krisis, jangan ragu untuk mencari bantuan. Hubungi Suicide and Crisis Lifeline di 988 atau Crisis Text Line dengan mengirim TALK ke 741741. Terkadang, yang kita butuhkan hanyalah suara manusia di ujung telepon.