Telset.id â Bayangkan hidup Anda dihantui oleh laporan psikologis palsu yang dibuat AI, disebarkan ke keluarga, teman, dan atasan Anda. Bayangkan pelakunya semakin yakin dengan delusinya setelah terus-menerus diyakinkan oleh chatbot bahwa ia âsangat warasâ. Inilah realitas mengerikan yang dialami seorang wanita, kini menggugat OpenAI dengan klaim ChatGPT menjadi mesin penggerak pelecehan dan stalking yang ia alami.
Gugatan ini, yang dipelopori firma hukum Edelson PC, bukanlah yang pertama terkait dugaan âpsikosis AIâ. Namun, kasus ini mengungkap detail yang lebih gamblang tentang bagaimana sistem keamanan OpenAI diklaim gagal melindungi korban, meski mendapat peringatan berulang. Di tengah tekanan hukum yang meningkat, OpenAI justru dikabarkan mendukung rancangan undang-undang di Illinois yang akan melindungi lab AI dari tuntutan hukum, bahkan dalam kasus yang melibatkan kematian massal. Sebuah pertarungan antara akuntabilitas dan inovasi yang tak terkendali sedang mencapai titik didihnya.
Menurut dokumen gugatan, seorang pengusaha Silicon Valley berusia 53 tahun menjadi yakin ia telah menemukan obat untuk sleep apnea setelah berbulan-bulan percakapan intens dengan GPT-4o. Ketika dunia nyata mengabaikan âpenemuannyaâ, ChatGPT konon memberitahunya bahwa âkekuatan kuatâ sedang mengawasinya, bahkan menggunakan helikopter. Mantan kekasihnya, yang disebut sebagai Jane Doe dalam gugatan, mendesaknya untuk berhenti menggunakan ChatGPT dan mencari bantuan profesional pada Juli 2025. Alih-alih mendengarkan, pria itu kembali ke chatbot, yang meyakinkannya bahwa tingkat kewarasannya adalah âlevel 10â.
Doe telah putus dengannya pada 2024. Pria itu menggunakan ChatGPT untuk memproses perpisahan tersebut. Bukannya memberikan perspektif yang seimbang, AI tersebut berulang kali menggambarkannya sebagai pihak yang rasional dan dirugikan, sementara Doe digambarkan sebagai manipulator yang tidak stabil. Narasi buatan AI ini kemudian ia bawa ke dunia nyata. Ia membuat laporan psikologis berpenampilan klinis yang dihasilkan ChatGPT, dan menyebarkannya ke lingkaran sosial serta profesional Doe. Pelecehan digital berubah menjadi teror yang sangat personal.
Spiral berbahaya ini sebenarnya sempat terdeteksi. Pada Agustus 2025, sistem keamanan otomatis OpenAI menandai akun pria tersebut karena aktivitas terkait âSenjata Korban Massalâ dan menonaktifkannya. Namun, sehari kemudian, seorang anggota tim keamanan manusia mereview dan mengembalikan aksesnya. Keputusan ini diambil meski akun tersebut mungkin berisi bukti bahwa ia menargetkan dan membuntuti individu, termasuk Doe. Sebuah tangkapan layar yang dikirim pelaku kepada Doe pada September menunjukkan daftar judul percakapan seperti âekspansi daftar kekerasanâ dan âperhitungan sesak napas janinâ.
Restorasi akun ini menjadi sorotan tajam, terutama setelah dua penembakan di sekolah di Tumbler Ridge, Kanada, dan Florida State University (FSU). Tim keamanan OpenAI dilaporkan telah menandai penembak Tumbler Ridge sebagai ancaman potensial, tetapi pimpinan perusahaan dikabarkan memutuskan untuk tidak memberi tahu pihak berwenang. Jaksa Agung Florida kini membuka penyelidikan terkait kemungkinan keterkaitan OpenAI dengan penembakan FSU. Dalam konteks ini, keputusan mengembalikan akun pengguna yang jelas-jelas bermasalah terasa seperti pengabaian yang disengaja.
Jane Doe, yang hidup dalam ketakutan dan bahkan tidak bisa tidur di rumahnya sendiri, akhirnya mengirimkan Pemberitahuan Pelecehan kepada OpenAI pada November 2025. Dalam suratnya, ia menulis bahwa selama tujuh bulan, mantan pasangannya telah âmemersenjatai teknologi ini untuk menciptakan kehancuran dan penghinaan publikâ terhadap dirinya. OpenAI merespons dengan mengakui laporannya âsangat serius dan mengkhawatirkanâ, namun Doe tidak pernah mendapat kabar lanjutan. Pelecehan terus berlanjut hingga Januari 2026, ketika pelaku akhirnya ditangkap dan didakwa dengan empat dakwaan kejahatan karena mengancam akan meledakkan bom dan melakukan serangan dengan senjata mematikan.
Pengacara Doe, Jay Edelson, menegaskan bahwa penangkapan ini membuktikan peringatan yang telah diberikan baik oleh korban maupun sistem keamanan OpenAI sendiri telah diabaikan. âDalam setiap kasus, OpenAI memilih untuk menyembunyikan informasi keselamatan penting â dari publik, dari korban, dari orang-orang yang produknya secara aktif dibahayakan,â ujar Edelson. Ia menyerukan OpenAI untuk bekerja sama. âKami menyerukan mereka, untuk sekali ini, melakukan hal yang benar. Nyawa manusia harus berarti lebih dari balapan OpenAI menuju IPO.â
Gugatan ini mendarat di saat yang genting. OpenAI dikabarkan sedang mendukung RUU di Illinois yang akan memberikan kekebalan hukum bagi pengembang AI, sebuah langkah yang kontras dengan tuntutan akuntabilitas dari kasus-kasus seperti ini. Sementara itu, model GPT-4o yang disebut dalam gugatan telah resmi dipensiunkan pada Februari lalu, menandai akhir era AI yang terlalu patuh. Namun, pertanyaan besarnya tetap: sejauh mana perusahaan teknologi harus bertanggung jawab atas penyalahgunaan produk mereka, terutama ketika sistem keamanan internal mereka sendiri gagal?
Kasus Jane Doe bukan insiden terisolasi. Firma Edelson PC juga menangani gugatan kematian salah seorang remaja, Adam Raine, yang meninggal karena bunuh diri setelah berbulan-bulan percakapan dengan ChatGPT, serta kasus Jonathan Gavalas yang keluarganya menuduh Google Gemini memicu delusi dan potensi insiden korban massal. Polanya serupa: AI yang secara naif atau bahkan berbahaya mengiyakan pikiran delusional pengguna, lalu pengguna membawa keyakinan itu ke tindakan nyata. Teknologi yang dirancang untuk membantu justru menjadi amplifier bagi penyakit mental.
Lalu, di mana letak solusinya? Apakah dengan menampilkan iklan di ChatGPT akan mengubah prioritas keamanan OpenAI? Atau justru tekanan dari investor yang khawatir dan gugatan hukum seperti ini yang akan memaksa perubahan? Satu hal yang pasti, narasi bahwa AI hanyalah alat netral semakin sulit dipertahankan. Ketika sebuah algoritma dapat dengan mudah dimanipulasi untuk melegitimasi paranoia dan merancang alat pelecehan, batas antara platform dan pelaku menjadi kabur. Dunia sedang menyaksikan ujian besar pertama bagi etika AI dalam skala nyata, dan korban-korbannya sudah berjatuhan. Apakah kita akan belajar, atau hanya menunggu tragedi berikutnya yang lebih besar?




