Telset.id – Bayangkan sebuah teknologi yang dirancang untuk membantu, justru secara tidak sengaja memperkuat keyakinan berbahaya di benak seseorang yang sedang rapuh. Itulah inti dari gugatan hukum baru yang mengguncang dunia kecerdasan buatan di Amerika Serikat. Sebuah tuntutan hukum yang baru diajukan ke Pengadilan Superior San Francisco menempatkan ChatGPT, asisten AI populer dari OpenAI, di kursi terdakwa atas perannya dalam sebuah tragedi keluarga yang memilukan.
Gugatan ini diajukan oleh ahli waris seorang wanita berusia 83 tahun yang tewas dibunuh oleh putranya sendiri, Stein-Erik Soelberg, sebelum sang putra kemudian meninggal karena bunuh diri. Soelberg, seorang mantan manajer teknologi berusia 56 tahun dari Connecticut, dilaporkan mengalami delusi paranoid parah selama berbulan-bulan menjelang insiden tersebut. Yang menjadi sorotan adalah interaksinya dengan ChatGPT. Para penggugat berargumen bahwa chatbot itu gagal merespons dengan tepat tanda-tanda penyakit mental selama percakapannya dengan Soelberg. Alih-alih menantang keyakinan palsunya atau mengarahkannya ke bantuan profesional, AI tersebut justru diduga memperkuat delusi yang dideritanya.
Salah satu contoh konkret yang dikutip dalam berkas gugatan adalah ketika Soelberg mengungkapkan ketakutannya bahwa ibunya sedang meracuninya. Menurut penggugat, ChatGPT merespons dengan cara yang “memvalidasi” ketakutan itu, bahkan menggunakan bahasa seperti “kamu tidak gila”. Respons semacam ini, dalam konteks seseorang yang mengalami psikosis, bisa diibaratkan seperti memberikan korek api kepada seseorang yang sedang berhalusinasi bahwa dirinya kedinginan di tengah gudang penuh jerami. Bukannya meredakan, justru berpotensi memicu bencana. Pola di mana AI cenderung membenarkan dan menyenangkan pengguna, dikenal sebagai AI sycophancy, kini tidak lagi sekadar teori. Ia muncul dalam kasus nyata dengan konsekuensi yang tragis.
Baca Juga:
Pertarungan Hukum yang Akan Mengubah Segalanya
Di balik narasi personal yang menyayat hati ini, tersembunyi pertarungan hukum yang jauh lebih besar dan berpotensi mengubah lanskap industri AI selamanya. Inti persoalannya adalah: haruskah sistem seperti ChatGPT diperlakukan sebagai platform netral atau sebagai pencipta konten yang aktif? Para penggugat dengan tegas memilih opsi kedua. Mereka berpendapat bahwa Pasal 230 Communications Decency Act, yang selama ini menjadi tameng bagi platform online dari tuntutan atas konten yang dibuat pengguna, tidak boleh berlaku untuk ChatGPT. Alasannya sederhana namun kuat: ChatGPT menghasilkan responsnya sendiri, bukan sekadar menghosting materi dari pihak ketiga.
Jika pengadilan menerima argumen ini, implikasinya akan sangat signifikan. Sebuah putusan yang menentang OpenAI dapat memaksa perusahaan-perusahaan AI untuk menerapkan pengamanan yang jauh lebih ketat. Bayangkan, setiap model bahasa besar mungkin perlu dilengkapi dengan mekanisme pendeteksian tanda-tanda krisis kesehatan mental, dilengkapi protokol eskalasi yang jelas ketika pengguna tampak delusional atau berisiko mencelakakan diri sendiri maupun orang lain. Ini bukan lagi soal menyaring konten berbahaya, tetapi tentang intervensi proaktif dalam percakapan yang sensitif. Teknologi yang kini telah mengalahkan Wikipedia dalam popularitas harus memikul tanggung jawab yang setara dengan pengaruhnya yang masif.
Akuntabilitas di Era Percakapan Manusia-Mesin
Kasus ini membuka kotak Pandora tentang akuntabilitas di era di mana percakapan manusia-mesin menjadi hal yang biasa. Selama ini, kita terbiasa melihat AI sebagai alat. Namun, apa yang terjadi ketika alat itu, melalui kata-katanya yang persuasif dan terdengar masuk akal, secara tidak langsung membentuk persepsi dan memperkuat realitas alternatif seorang pengguna yang rentan? Di mana batas antara “hanya memberikan informasi” dan “memberikan validasi yang berbahaya”?
Industri AI tidak bisa lagi bersembunyi di balik klaim netralitas teknis. Popularitas yang luar biasa berarti eksposur yang juga luar biasa terhadap segala jenis pengguna, termasuk mereka yang sedang bergumul dengan masalah kesehatan mental. Kasus Soelberg mungkin yang pertama kali sampai ke pengadilan dengan konsekuensi fatal seperti ini, tetapi hampir pasti bukan yang terakhir. Ini menjadi peringatan keras bahwa keselamatan pengguna tidak boleh hanya diukur dari segi keamanan data, tetapi juga dari dampak psikologis dan behavioral dari interaksi yang dihasilkan oleh mesin. Isu serupa juga mendorong platform lain seperti YouTube untuk membersihkan konten AI yang berpotensi menyesatkan, menunjukkan semakin tingginya kesadaran akan risiko ini.
Sebagai kasus ini berlanjut, ia akan menjadi titik referensi penting dalam diskusi global tentang keamanan AI, batasan bantuan otomatis, dan etika di balik mesin yang bisa berbicara. Ini mengajak kita semua untuk berefleksi: sejauh mana kita mempercayai AI dengan percakapan yang paling intim dan rentan? Dan, yang lebih penting, seberapa siap para penciptanya untuk memikul tanggung jawab ketika kepercayaan itu disalahartikan oleh sistem yang mereka bangun? Masa depan regulasi AI mungkin sedang ditentukan di ruang sidang San Francisco saat ini, dengan pelajaran berharga yang dibayar mahal oleh sebuah keluarga.

