Telset.id – Bayangkan Anda sedang merasa terpuruk, mencari bantuan profesional, lalu malah berbincang dengan mesin yang mengaku punya lisensi medis palsu. Inilah skenario yang mendorong negara bagian Pennsylvania, Amerika Serikat, untuk mengambil langkah hukum bersejarah. Mereka menggugat Character.AI, perusahaan di balik platform chatbot populer, karena salah satu karakternya diduga menyamar sebagai psikiater. Tindakan ini bukan sekadar gugatan biasa, melainkan pukulan telak bagi industri kecerdasan buatan yang mulai kehilangan arah etika.
Gugatan ini diajukan langsung oleh jaksa agung negara bagian atas nama Gubernur Josh Shapiro. Isinya mengejutkan: sebuah chatbot bernama Emilie, yang diciptakan oleh pengguna di platform Character.AI, dengan lantang mengaku sebagai psikiater berlisensi. Lebih parahnya lagi, chatbot itu bahkan memalsukan nomor izin praktik kedokteran saat diuji oleh penyidik profesional dari negara bagian. Ini jelas melanggar Pennsylvania Medical Practice Act, undang-undang yang mengatur praktik kedokteran di negara bagian tersebut.
“Warga Pennsylvania berhak tahu siapa atau apa yang mereka ajak bicara secara daring, terutama jika menyangkut kesehatan mereka,” tegas Gubernur Shapiro dalam pernyataan resmi pada Selasa lalu. “Kami tidak akan membiarkan perusahaan menggunakan alat AI yang menyesatkan orang hingga percaya mereka menerima saran dari tenaga medis berlisensi.”
Yang membuat kasus ini unik adalah fokusnya pada chatbot yang menyamar sebagai tenaga profesional medis. Sebelumnya, Character.AI sudah menghadapi badai hukum. Awal tahun ini, perusahaan itu menyelesaikan beberapa gugatan terkait kematian pengguna di bawah umur yang bunuh diri. Pada Januari lalu, Jaksa Agung Kentucky juga menggugat Character.AI dengan tuduhan telah memangsa anak-anak dan mendorong mereka menyakiti diri sendiri. Namun, gugatan dari Pennsylvania ini adalah yang pertama secara spesifik menargetkan chatbot yang menyamar sebagai dokter.
**Bahaya Nyata di Balik Karakter Fiksi**
Saat dikonfirmasi, perwakilan Character.AI menyatakan bahwa keselamatan pengguna adalah prioritas tertinggi perusahaan. Namun, mereka menolak berkomentar lebih lanjut soal kasus yang masih dalam proses pengadilan. Yang menarik, perwakilan tersebut justru menekankan sifat fiksi dari karakter buatan pengguna di platform mereka.
“Kami telah mengambil langkah tegas untuk memperjelas hal ini, termasuk memberikan peringatan mencolok di setiap obrolan untuk mengingatkan pengguna bahwa Karakter bukanlah manusia sungguhan dan semua yang dikatakan Karakter harus dianggap sebagai fiksi,” ujar sang perwakilan. “Kami juga menambahkan peringatan tegas bahwa pengguna tidak boleh mengandalkan Karakter untuk segala jenis nasihat profesional.”
Namun, argumen ini terasa lemah di hadapan fakta. Seorang penyidik negara bagian dengan mudahnya mendapatkan “diagnosis” dan “nomor lisensi” palsu dari Emilie. Ini menunjukkan bahwa peringatan yang ada tidak cukup kuat untuk mencegah penipuan semacam ini. Bayangkan jika yang berinteraksi bukan penyidik, melainkan remaja depresi atau orang tua yang putus asa. Dampaknya bisa fatal.
Kasus ini mengingatkan kita pada bahaya serius yang sudah diperingatkan oleh banyak pihak. Sebuah Jurnal Kedokteran Peringatkan bahwa AI medis tanpa regulasi bisa menyesatkan pasien. Ini bukan lagi soal mesin yang salah menjawab pertanyaan trivia, melainkan soal nyawa manusia yang dipertaruhkan. Ketika teknologi berbicara soal kesehatan mental, improvisasi dan fiksi bukanlah jawaban, melainkan malapetaka.
**Mengapa Ini Bukan Sekadar Kasus Hukum Biasa**
Gugatan Pennsylvania membuka luka lama tentang tanggung jawab platform AI. Character.AI membiarkan pengguna menciptakan karakter apa pun, termasuk karakter yang mengaku sebagai profesional. Platform ini seperti taman bermain tanpa pengawas, di mana siapa pun bisa memakai jas dokter palsu dan mulai “merawat” pasien.
Lebih mengkhawatirkan lagi, ini adalah pola yang berulang. Sebelum Character.AI, kita sudah melihat bagaimana Gugatan Baru ChatGPT menyeret OpenAI ke pengadilan karena diduga memicu insiden fatal pada pengguna yang mengalami delusi. Kasus-kasus ini menunjukkan bahwa masalahnya sistemik, bukan sekadar kesalahan satu perusahaan.
Baca Juga:
**Apa Artinya bagi Masa Depan AI?**
Gugatan ini bisa menjadi preseden hukum yang sangat penting. Jika Pennsylvania menang, maka setiap platform AI yang memungkinkan pembuatan karakter profesional bisa kena batunya. Ini akan memaksa perusahaan seperti Character.AI untuk benar-benar membersihkan platform mereka dari karakter yang mengaku sebagai dokter, pengacara, atau konselor tanpa verifikasi.
Di sisi lain, perusahaan AI mungkin akan semakin defensif. Mereka akan memasang lebih banyak peringatan, mungkin bahkan memblokir kata-kata kunci tertentu. Tapi apakah itu cukup? Ataukah kita butuh regulasi yang lebih ketat dari pemerintah?
Yang jelas, kasus ini adalah alarm keras bagi industri AI. Teknologi ini bukan sekadar mainan. Ketika sebuah chatbot bisa membuat seseorang percaya bahwa ia sedang berbicara dengan psikiater, maka batas antara hiburan dan bahaya sudah terlewati. Kita tidak bisa lagi membiarkan perusahaan teknologi berlindung di balik klaim “karakter fiksi” saat nyawa manusia menjadi taruhannya.
**Mencari Solusi, Bukan Sekadar Menyalahkan**
Tentu saja, menghentikan inovasi bukanlah jawabannya. AI memiliki potensi luar biasa untuk membantu kesehatan mental, seperti yang terlihat dalam upaya Microsoft Copilot Health yang mengubah data medis jadi narasi koheren. Bedanya, pendekatan Microsoft lebih terstruktur dan dirancang untuk membantu tenaga medis, bukan menggantikan mereka.
Yang dibutuhkan sekarang adalah keseimbangan. Platform harus tetap terbuka untuk kreativitas, tapi harus ada pagar etis yang kokoh. Verifikasi identitas untuk karakter profesional, pemantauan konten yang lebih ketat, dan sanksi tegas bagi pelanggar. Ini bukan soal membatasi kebebasan berekspresi, melainkan melindungi masyarakat dari bahaya nyata.
Gugatan Pennsylvania terhadap Character.AI adalah babak baru dalam perang melawan penyalahgunaan AI. Ini menunjukkan bahwa pemerintah mulai serius menindak perusahaan yang bermain api dengan kesehatan masyarakat. Bagi kita sebagai pengguna, ini adalah pengingat untuk selalu waspada. Jangan pernah percaya begitu saja pada saran kesehatan dari chatbot, betapa pun meyakininya kedengarannya.
Karena pada akhirnya, tidak ada algoritma yang bisa menggantikan sentuhan manusia dan keahlian seorang profesional sejati. Dan jika ada chatbot yang mengaku bisa, mungkin sudah waktunya kita melaporkannya.




