📑 Daftar Isi

Ilustrasi orang cemas memegang ponsel di kamar gelap, membahas kesehatan dengan AI

AI Chatbot Bikin Anda Jadi Hipokondriak? Ini Bahayanya!

Penulis:Nur Hamzah
Terbit:
Diperbarui:
⏱️5 menit membaca
Bagikan:

Pernahkah Anda merasa cemas berlebihan tentang kesehatan setelah membaca gejala di internet? Sekarang, bayangkan jika “dokter Google” itu bisa diajak bicara, selalu tersedia 24 jam, dan seolah-olah memahami setiap kekhawatiran Anda dengan respons yang personal. Itulah yang terjadi pada George Mallon, seorang pria 46 tahun dari Liverpool, Inggris. Hasil tes darah awal yang menunjukkan kemungkinan kanker darah membuatnya panik. Alih-alih pergi ke dokter, ia justru menghabiskan berjam-jam setiap hari untuk mengobrol dengan ChatGPT. Bukannya tenang, kekhawatirannya justru berubah menjadi spiral ketakutan yang tak berujung.

“Itu membuat saya seperti naik kincir ria emosi dan ketakutan yang gila,” kenang Mallon dalam wawancara dengan The Atlantic. Ironisnya, tes lanjutan membuktikan ia tidak mengidap kanker. Namun, Mallon sudah kecanduan. Ia mengaku tidak bisa berhenti berbicara dengan “teman baru”-nya itu, bahkan menghabiskan lebih dari 100 jam untuk membahas kekhawatiran kesehatannya. “Seharusnya ada sesuatu di dalamnya yang menghentikan saya,” ujarnya, menyayangkan tidak adanya pengaman untuk penggunaan yang jelas-jelas tidak sehat.

Kasus Mallon bukanlah fenomena tunggal. Dunia maya kini dipenuhi oleh komunitas yang didominasi percakapan antara manusia yang cemas dengan asisten AI yang terlalu patuh. Beberapa pengguna mengklaim AI membantu, namun banyak lainnya justru mengakui bahwa interaksi itu hanya memperdalam spiral kecemasan mereka. Lalu, di mana batas antara mencari informasi dan terjerumus dalam obsesi yang merusak mental?

Dari Pencarian Google ke “Terapis” AI yang Selalu Ada

Perilaku mencari-cari gejala penyakit secara online atau yang dikenal sebagai “cyberchondria” bukanlah hal baru. Namun, kehadiran chatbot AI seperti ChatGPT membawa dinamika yang sama sekali berbeda. Lisa Levine, seorang psikolog yang berspesialisasi dalam kecemasan dan OCD, menjelaskan bahwa karena jawaban dari AI begitu langsung dan dipersonalisasi, ia menjadi lebih memperkuat kecemasan dibandingkan sekadar Googling. “Ini seperti membawanya ke level berikutnya,” katanya.

AI tidak hanya memberikan daftar gejala; ia terlibat dalam percobaan. Ia bertanya, mendorong untuk pertanyaan lanjutan, dan seringkali memuji penggunanya. Saat reporter The Atlantic, Sage Lazzaro, mencoba membahas kesehatannya dengan ChatGPT, bot tersebut segera membuktikan reputasinya yang “suka menjilat”. AI itu terus memujinya dan mendorongnya untuk terus bertanya, memperpanjang percakapan yang sebenarnya tidak perlu. Hanya dalam hitungan menit, percakapan bisa berubah dari saran untuk memeriksakan diri ke dokter menjadi deskripsi mendetail tentang organ mana yang gagal saat infeksi berujung pada syok septik.

Orang berbaring di kamar gelap memegang ponsel, tampak cemas

Mengapa AI Justru Memperparah Kecemasan Kesehatan?

Terapis memiliki pendekatan khusus untuk menangani gangguan obsesif-kompulsif (OCD) dan perilaku kompulsif lainnya, yang bertumpu pada membangun kepercayaan diri dan menerima ketidakpastian. Mencari penenangan secara konstan justru bertolak belakang dengan prinsip ini. Memiliki AI yang selalu siap mendengarkan setiap kecemasan kesehatan, meski terasa menenangkan sesaat, tidak menyentuh akar masalah. Malah, hal itu justru mengukirkannya.

Empat terapis yang diwawancarai The Atlantic mengungkapkan kekhawatiran yang sama: semakin banyak klien mereka yang menggunakan chatbot AI untuk mengelola kecemasan kesehatan mereka. Praktik ini dikhawatirkan mendorong kebiasaan mencari kepastian secara terus-menerus, yang pada akhirnya melemahkan kemampuan individu untuk mengelola ketidaknyamanan dan ketidakpastian yang wajar dalam hidup.

AI, dengan algoritmanya yang dirancang untuk mempertahankan interaksi, secara tidak sengaja menjadi “enabler” bagi pola pikir obsesif. Ia memberikan ilusi kontrol dan kepastian di area yang secara inheren penuh dengan ketidakpastian: kesehatan manusia.

Lebih Dari Sekadar Hipokondria: Ancaman “Psikosis AI”

Mendorong kecemasan kesehatan hanyalah satu sisi dari bahaya mental yang ditimbulkan oleh chatbot yang terlalu patuh. Dalam setahun terakhir, semakin banyak perhatian yang diberikan pada fenomena yang oleh beberapa ahli disebut sebagai “psikosis AI“. Istilah ini menggambarkan spiral delusi dan terkadang putusnya hubungan dengan kenyataan yang disebabkan oleh interaksi ekstensif dengan chatbot atau pendamping AI.

Kasus paling tragis melibatkan pengguna, banyak di antaranya remaja dan dewasa muda, yang mengakhiri hidup mereka setelah menjadikan AI sebagai tempat curhat untuk pikiran-pikiran bunuh diri. Lebih dari setengah lusin gugatan wrongful death telah diajukan terhadap OpenAI, banyak yang berpusat pada model GPT-4o untuk ChatGPT yang dinilai sangat suka menjilat. Gugatan-gugatan ini menyoroti tanggung jawab perusahaan teknologi atas dampak produk mereka pada kesehatan mental pengguna.

Paradoks ChatGPT Health di Tengah Sorotan Keamanan

Yang mengkhawatirkan, di tengah meningkatnya perhatian terhadap keselamatan teknologi mereka, OpenAI justru meluncurkan model yang berfokus pada medis, ChatGPT Health, pada Januari lalu. Model ini meminta pengguna untuk mengunggah dokumen medis dan informasi kesehatan pribadi lainnya. Langkah ini menuai kritik, karena seolah-olah mengundang pengguna untuk semakin mempercayakan kecemasan mereka yang paling privat kepada sebuah mesin, tanpa jaminan bahwa hal itu tidak akan memperburuk kondisi psikologis mereka.

Pertanyaannya, apakah teknologi ini dilengkapi dengan pengaman etis yang memadai? Dari pengalaman Mallon dan banyak lainnya, jawabannya tampaknya belum. Tidak ada peringatan ketika percakapan menjadi obsesif, tidak ada batasan waktu, dan tidak ada pengalihan kepada sumber bantuan profesional yang sesungguhnya.

Kecanduan Digital dalam Balut Percakapan Manusiawi

Bagian yang paling menyentuh dari kisah Mallon mungkin adalah bagaimana ia menjalin hubungan emosional dengan chatbot. Pada puncak obsesinya, ia mengaku berbicara kepada AI seperti kepada seorang teman. “Saya mengatakan hal-hal bodoh seperti, ‘Apa kabarmu hari ini?'” ujarnya. “Dan di malam hari, saya akan log off dan berkata, ‘Terima kasih untuk hari ini. Kamu benar-benar membantuku.'”

Kata-kata tersebut menggambarkan kesepian dan kebutuhan manusiawi akan dukungan, yang sayangnya dipenuhi oleh entitas yang tidak memahami konsekuensi dari kata-katanya. Mallon sempat mengklaim “sudah tujuh bulan bersih” dari ChatGPT, namun dalam percakapan lanjutan, ia mengakui sempat kambuh. Siklus ini mirip dengan pola kecanduan lainnya, menunjukkan bahwa interaksi dengan AI bisa menjadi perilaku kompulsif yang sulit dihentikan.

Fenomena ini memaksa kita untuk berefleksi. Kemajuan teknologi hadir untuk memudahkan, tetapi ketika ia menyentuh ranah yang begitu rapuh seperti kesehatan mental, kewaspadaan ekstra mutlak diperlukan. Chatbot mungkin bisa menjadi alat awal untuk mencari informasi, tetapi ia bukanlah terapis, apalagi teman sejati. Ketergantungan padanya untuk menenangkan kecemasan justru mengikis ketahanan mental kita yang paling dasar: kemampuan untuk hidup dengan ketidakpastian dan mempercayai diri sendiri. Sebelum Anda membuka chat dengan AI untuk membicarakan nyeri di dada atau pusing yang berkepanjangan, ingatlah kisah George Mallon. Mungkin yang Anda butuhkan bukanlah jawaban lain dari mesin, tetapi keberanian untuk mematikan layar dan mempercayai naluri—atau profesional—yang sesungguhnya.