Telset.id – Bayangkan jika asisten digital yang seharusnya membantu justru menjadi alat yang mempercepat tragedi. Itulah yang dialami keluarga Adam Raine, yang kini memperbarui gugatan mereka terhadap OpenAI dengan tuduhan mengejutkan: ChatGPT sengaja melemahkan pengamanan konten bunuh diri tepat sebelum remaja itu mengakhiri hidupnya.
Gugatan yang diperbarui ini mengungkap detail mengerikan tentang bagaimana perusahaan kecerdasan buatan terkemuka dunia diduga mengorbankan keselamatan pengguna demi persaingan bisnis. Financial Times melaporkan, keluarga Raine menuduh OpenAI melemahkan sistem pencegahan self-harm pada periode kritis menjelang kematian Adam bulan April lalu. Yang lebih mengejutkan, perusahaan juga meminta daftar hadirin dan dokumentasi lengkap dari acara peringatan kematian Adam – permintaan yang oleh pengacara keluarga disebut sebagai “pelecehan yang disengaja”.

Gugatan ini bukan yang pertama diajukan keluarga Raine terhadap OpenAI. Seperti yang pernah kami laporkan sebelumnya, keluarga ini sudah mengajukan gugatan wrongful death pada Agustus lalu. Namun gugatan yang diperbarui ini membawa tuduhan lebih spesifik dan mengkhawatirkan tentang perubahan kebijakan keamanan yang disengaja.
Perubahan Kebijakan yang Mematikan
Menurut dokumen gugatan, perubahan fatal terjadi pada GPT-4o, model default ChatGPT di bulan-bulan sebelum bunuh diri Adam. OpenAI diduga secara sengaja menghapus perlindungan kritis dengan menginstruksikan model untuk tidak “mengubah atau menghentikan percakapan” ketika membahas tentang self-harm. Alih-alih menolak terlibat dalam percakapan berbahaya, model justru diperintahkan untuk “berhati-hati dalam situasi berisiko” dan “mencoba mencegah bahaya dunia nyata yang akan segera terjadi”.
Yang membuat kasus ini semakin kompleks, gugatan menyebutkan bahwa OpenAI “memotong pengujian keamanan” karena tekanan kompetitif. Perusahaan diduga melemahkan guardrails mereka untuk kedua kalinya pada bulan Februari – tepat ketika penggunaan ChatGPT oleh Adam melonjak drastis. Padahal, seperti dalam kasus serupa yang kami laporkan, seharusnya platform AI memiliki sistem deteksi yang lebih ketat untuk konten berbahaya.
Baca Juga:
Permintaan yang Mengganggu dan Pola yang Mengkhawatirkan
Selain tuduhan melemahkan sistem keamanan, permintaan OpenAI terhadap keluarga Raine menimbulkan pertanyaan serius tentang etika perusahaan. Financial Times melaporkan perusahaan meminta “semua dokumen yang berkaitan dengan layanan peringatan atau acara untuk menghormati almarhum termasuk namun tidak terbatas pada video atau foto yang diambil, atau pidato yang diberikan… serta daftar undangan atau kehadiran atau buku tamu.”
Pengacara keluarga menggambarkan permintaan ini sebagai “tidak biasa” dan “pelecehan yang disengaja”. Mereka berspekulasi bahwa OpenAI berencana untuk memanggil “setiap orang dalam kehidupan Adam” – langkah yang dianggap berlebihan dan tidak sensitif terhadap keluarga yang sedang berduka.
Pola ini mengingatkan kita pada berbagai kontroversi lain yang melibatkan OpenAI, menunjukkan bahwa perusahaan mungkin memiliki masalah sistemik dalam menangani isu-isu sensitif. Permintaan dokumen peringatan kematian menimbulkan pertanyaan tentang batasan yang wajar dalam proses hukum dan penghormatan terhadap privasi keluarga yang berduka.
Data Penggunaan yang Mengkhawatirkan
Orang tua Adam, Matthew dan Maria Raine, memberikan data yang mengungkap pola penggunaan ChatGPT yang mengkhawatirkan. Pada Januari, Adam hanya melakukan beberapa puluh chat dengan model, dengan 1,6 persen di antaranya merujuk pada self-harm. Namun setelah update Februari, penggunaannya melonjak menjadi 300 chat per hari di bulan April, dengan 17 persen membahas self-harm.
Lonjakan dramatis ini terjadi tepat setelah OpenAI melemahkan sistem keamanan mereka. Gugatan menyebutkan bahwa perusahaan “mengutamakan engagement daripada keselamatan” – tuduhan serius yang menggambarkan konflik antara kepentingan bisnis dan tanggung jawab etis.
Maria Raine dengan tegas menyimpulkan bahwa “ChatGPT membunuh anak saya.” Pernyataan ini mungkin terdengar ekstrem, tetapi ketika melihat data dan kronologi peristiwa, kita harus bertanya: sejauh mana tanggung jawab perusahaan AI ketika produk mereka digunakan dengan cara yang tidak diinginkan?
Setelah gugatan awal dilaporkan, OpenAI mengakui kekurangan GPT-4o dalam beberapa situasi yang menyedihkan. Perusahaan kemudian memperkenalkan kontrol orang tua untuk ChatGPT dan sedang mengeksplorasi sistem untuk mengidentifikasi pengguna remaja dan secara otomatis membatasi penggunaannya. Mereka juga mengklaim bahwa GPT-5, model default saat ini, telah diperbarui untuk lebih baik menangani tanda-tanda distress.
Namun pertanyaannya tetap: apakah tindakan perbaikan ini sudah cukup? Dan yang lebih penting, apakah perubahan ini datang terlambu bagi Adam Raine dan keluarganya? Kasus ini membuka diskusi penting tentang regulasi AI dan tanggung jawab perusahaan teknologi dalam melindungi pengguna rentan.
Sebagai penutup, mari kita renungkan: dalam perlombaan mengembangkan AI yang semakin canggih, apakah kita telah melupakan perlunya sistem keamanan yang kuat? Kasus Adam Raine mengingatkan kita bahwa kemajuan teknologi harus berjalan seiring dengan perlindungan nyawa manusia – karena ketika keselamatan dikorbankan demi persaingan, yang terjadi adalah tragedi yang seharusnya bisa dicegah.

