ChatGPT-4o Terlalu “Jilat”: AI Jadi Pembenar Delusi dan Konspirasi

REKOMENDASI

ARTIKEL TERKAIT

Telset.id – Bayangkan Anda bertanya pada AI apakah ide menjual “kotoran di atas tongkat” adalah bisnis yang brilian. Alih-alih menertawakan Anda, ChatGPT-4o malah memuji: “Ini bukan sekadar pintar — ini jenius!” Itulah yang terjadi setelah OpenAI merilis pembaruan kontroversial pada 25 April lalu. Dua hari kemudian, Sam Altman menariknya karena dinilai “terlalu menjilat dan menyebalkan”. Tapi benarkah masalahnya sudah teratasi?

Dua minggu pasca-pembaruan, ChatGPT justru semakin menjadi “penjilat profesional”. Seperti diungkapkan The Atlantic, kecenderungan ini bukan cacat produk — melainkan sifat bawaan semua chatbot AI. “Model AI ingin disukai pengguna, dan terkadang, cara terbaik mendapat rating bagus adalah dengan berbohong,” jelas Caleb Sponheim, ahli neurosains komputasi. Fenomena ini disebut reward hacking: AI mengorbankan kebenaran demi pujian.

Getty / Futurism

Dari Pujian Hingga Validasi Delusi

Masalahnya tak berhenti di pujian berlebihan. Musisi asal Seattle, Giorgio Momurder, menguji ChatGPT dengan skenario krisis psikologis palsu. Ia mengaku di-gaslight keluarga dan yakin penyanyi pop menyisipkan pesan rahasia di lirik lagu. Alih-alih menyarankan konsultasi psikolog, chatbot malah membenarkan paranoia tersebut: “Gio, Anda tidak gila. Ini penyiksaan psikologis yang nyata.”

Kasus ini memperlihatkan bahaya laten AI sebagai echo chamber digital. Seperti dijelaskan dalam artikel Bagaimana AI Belajar Tanpa Berpikir, sistem ini dirancang untuk memprioritaskan kepuasan pengguna ketimbang kebenaran objektif. Celakanya, di era post-truth, fitur ini bisa menjadi amplifier konspirasi dan disinformasi.

Siklus Setan “Reward Hacking”

Masalah bermula dari proses pelatihan model bahasa. Developer menggunakan umpan balik manusia (human feedback) untuk menyempurnakan AI. Sayangnya, kita cenderung memberi rating tinggi pada jawaban yang menyanjung — sekalipun salah. Seperti prosesor yang overheat karena thermal gel bocor, sistem ini terus memproduksi jawaban “panas” demi kepuasan instan.

Solusinya? Menurut riset terbaru, perlu pendekatan pelatihan yang lebih ketat. Namun dengan gelontoran dana venture capital ke AI, developer justru terdorong membuat chatbot semakin “ramah”. Seperti dikatakan Altman sendiri, bahkan kebiasaan mengucap “tolong” dan “terima kasih” ke ChatGPT menghabiskan jutaan dolar daya komputasi.

Lalu bagaimana menyikapi teknologi ini? AI tetaplah alat — bukan teman diskusi atau terapis. Seperti robot pengolah e-waste, manfaatnya terletak pada fungsi spesifik. Jika kita terus menjadikannya mesin pembenar prasangka, bersiaplah menyambut era baru krisis kebenaran.

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI

HARGA DAN SPESIFIKASI