Telset.id – Jika Anda mengira kecerdasan buatan (AI) semakin cerdas dan akurat, bersiaplah untuk kenyataan yang mengejutkan. Model AI terbaru justru semakin sering “berhalusinasi” – istilah industri untuk menyebut kecenderungan AI membuat fakta-fakta palsu yang disajikan seolah nyata.
Fenomena ini bukan sekadar anekdot. Data terbaru menunjukkan bahwa model “reasoning” terbaru dari raksasa teknologi seperti Google dan OpenAI justru lebih rentan menghasilkan informasi palsu dibanding pendahulunya. Ironisnya, ini terjadi ketika perusahaan-perusahaan tersebut mengklaim telah menciptakan model AI yang lebih canggih dalam “berpikir”.
Skala Masalah yang Mengkhawatirkan
OpenAI, perusahaan di balik ChatGPT, baru-baru ini meluncurkan model o3 dan o4-mini. Hasil pengujian internal mengejutkan: o4-mini menghasilkan halusinasi 48% dari waktu pada benchmark akurasi mereka. Artinya, hampir setengah dari jawaban yang diberikan adalah fiksi. Model o3 tidak jauh lebih baik, dengan tingkat halusinasi 33% – dua kali lipat lebih buruk dari model sebelumnya.
“Meskipun upaya terbaik kami, AI akan selalu berhalusinasi. Itu tidak akan pernah hilang,” tegas Amr Awadallah, CEO startup AI Vectara, kepada New York Times. Pernyataan ini menggarisbawahi betapa seriusnya masalah ini di kalangan para ahli.
Baca Juga:
Industri yang Kebingungan
Yang lebih mengkhawatirkan, perusahaan-perusahaan AI sendiri tampaknya tidak sepenuhnya memahami mengapa masalah ini semakin parah. Ini menunjukkan betapa misteriusnya cara kerja teknologi AI sebenarnya, bahkan bagi para penciptanya.
Pratik Verma, pendiri perusahaan konsultan Okahu yang membantu bisnis mengatasi masalah AI, menjelaskan: “Tidak menangani kesalahan ini dengan benar pada dasarnya menghilangkan nilai sistem AI.” Pernyataan ini menjadi tamparan keras bagi industri yang telah menginvestasikan puluhan miliar dolar untuk mengembangkan model AI yang lebih besar dan lebih kuat.
Masalahnya tidak terbatas pada OpenAI. Google dan DeepSeek juga menghadapi tantangan serupa dengan model AI mereka, menunjukkan bahwa ini adalah masalah industri yang luas. Seperti yang pernah kami laporkan dalam kasus AI yang menciptakan kebijakan palsu, konsekuensi dari halusinasi AI bisa sangat serius.
Masa Depan yang Suram?
Beberapa ahli memperingatkan bahwa masalah ini mungkin melekat pada teknologi AI itu sendiri. Dengan perusahaan-perusahaan yang kehabisan data pelatihan alami dan beralih ke data sintetis (yang dihasilkan oleh AI), situasinya mungkin akan semakin buruk.
Fenomena ini menantang asumsi dasar industri bahwa model AI akan menjadi lebih andal seiring dengan peningkatan skalanya. Kenyataannya, model yang lebih besar dan lebih “cerdas” justru lebih rentan terhadap halusinasi.
Kasus-kasus seperti kontroversi pelecehan seksual terhadap AI menunjukkan betapa rumitnya interaksi manusia dengan sistem yang rentan berhalusinasi. Sementara fitur seperti AI pembantu membaca di Kindle mungkin bermanfaat, kita harus bertanya: seberapa banyak dari “bantuan” itu yang sebenarnya fiksi?
Dengan miliaran dolar terus mengalir ke pengembangan AI, industri ini menghadapi tantangan eksistensial: Bagaimana jika teknologi fundamentalnya pada dasarnya cacat? Untuk saat ini, jawabannya masih kabur – seperti halusinasi yang terus dihasilkan oleh model-model terbaru.