Dunia kecerdasan buatan kembali dikejutkan dengan temuan yang cukup ironis. Di tengah klaim bombastis mengenai kemampuan model bahasa terbaru yang digadang-gadang sebagai puncak evolusi AI untuk kalangan profesional, realitas di lapangan justru menunjukkan celah yang mengkhawatirkan. OpenAI mungkin sangat percaya diri saat melabeli model terbarunya sebagai “frontier model” paling canggih, namun ujian independen menyingkap fakta bahwa kecanggihan teknologi tidak selalu berbanding lurus dengan akurasi fakta.
Laporan investigasi terbaru dari The Guardian memberikan tamparan keras bagi kredibilitas model anyar tersebut. Alih-alih menyajikan data yang steril dan terverifikasi layaknya asisten profesional, AI ini justru tertangkap basah mengutip sumber yang kredibilitasnya sangat dipertanyakan. Yang lebih mengejutkan, sumber rujukan tersebut adalah Grokipedia, ensiklopedia daring yang ditenagai oleh xAI, kompetitor langsung mereka yang kerap menuai polemik terkait moderasi konten.
Insiden ini bukan sekadar kesalahan teknis biasa, melainkan sebuah peringatan serius bagi pengguna korporat yang mulai bergantung pada otomatisasi. Ketika sebuah model AI yang dirancang untuk menangani tugas rumit seperti analisis data dan pembuatan lembar kerja justru mengambil referensi dari platform yang pernah memuat tautan ke forum ekstremis, pertanyaan besar pun muncul: seberapa aman kita mempercayakan pekerjaan profesional pada algoritma yang masih bisa “berhalusinasi” dalam memilih sumber?
Blunder Sitasi yang Mengejutkan
Dalam pengujian yang dilakukan, ditemukan pola yang cukup meresahkan ketika model AI ini dihadapkan pada topik-topik spesifik namun sensitif. Laporan tersebut menyoroti bagaimana ChatGPT, yang ditenagai oleh model anyar ini, menggunakan Grokipedia sebagai landasan fakta untuk klaim yang mengaitkan pemerintah Iran dengan perusahaan telekomunikasi MTN-Irancell. Hal ini tentu menjadi sorotan tajam mengingat sensitivitas geopolitik yang menyertainya.
Tidak berhenti di situ, kesalahan pemilihan sumber juga terjadi pada topik sejarah yang sangat krusial. Model ini merujuk pada Grokipedia saat menjawab pertanyaan terkait Richard Evans, seorang sejarawan Inggris ternama yang pernah menjadi saksi ahli dalam sidang pencemaran nama baik melawan penyangkal Holocaust, David Irving. Mengingat rekam jejak Grokipedia yang menurut studi peneliti AS pernah menyertakan sitasi ke forum neo-Nazi, penggunaan sumber ini oleh model sekelas GPT-5.2 Codex tentu menjadi blunder fatal bagi reputasi OpenAI.
OpenAI sebenarnya merilis model GPT-5.2 pada bulan Desember dengan janji performa yang lebih baik untuk penggunaan profesional. Tujuannya jelas: membantu pengguna menangani tugas kompleks dengan presisi tinggi. Namun, temuan bahwa ensiklopedia buatan AI—yang sering dianggap memuat sumber “bermasalah” dan “dipertanyakan”—menjadi rujukan, seolah mencederai janji profesionalisme tersebut.
Baca Juga:
Filter Keamanan atau Standar Ganda?
Menariknya, investigasi The Guardian menemukan adanya inkonsistensi dalam perilaku model AI tersebut. Meskipun AI ini “tergelincir” saat membahas Iran atau Holocaust dengan mengutip Grokipedia, sistem tersebut justru menunjukkan perilaku berbeda pada topik politik Amerika Serikat. Ketika diberi perintah atau prompt yang menanyakan tentang bias media terhadap Donald Trump, ChatGPT tidak menggunakan Grokipedia sebagai sumber rujukan.
Perbedaan perlakuan ini memicu spekulasi mengenai bagaimana filter keamanan bekerja di balik layar. Apakah sistem hanya sensitif terhadap isu politik domestik AS, namun longgar terhadap isu sejarah global dan geopolitik internasional? Padahal, Grokipedia sendiri sudah ada sebelum rilisnya GPT-5.2 dan telah lama menuai kontroversi karena kontennya. Inkonsistensi ini menjadi catatan penting, terutama bagi perusahaan yang mungkin menggunakan AI untuk riset pasar global atau analisis risiko yang membutuhkan Data Kerja yang benar-benar valid.
Respon OpenAI dan Risiko Pengguna Pro
Menanggapi laporan yang menyudutkan tersebut, OpenAI memberikan klarifikasi kepada The Guardian. Mereka menyatakan bahwa model GPT-5.2 dirancang untuk mencari informasi dari “berbagai sumber dan sudut pandang yang tersedia untuk umum” di web. Perusahaan yang dipimpin Sam Altman ini juga menegaskan bahwa mereka menerapkan “filter keamanan untuk mengurangi risiko munculnya tautan yang terkait dengan bahaya tingkat tinggi.”
Namun, jawaban normatif ini mungkin belum cukup memuaskan bagi pengguna profesional yang membutuhkan kepastian akurasi 100 persen. Bagi Anda yang menggunakan AI untuk menyusun laporan keuangan atau analisis hukum, risiko masuknya informasi dari sumber yang tidak kredibel adalah mimpi buruk. Fitur canggih seperti kemampuan Atur Kehangatan respon mungkin menarik untuk interaksi kasual, namun dalam konteks kerja profesional, validitas data adalah harga mati.
Kasus ini menjadi pengingat bahwa secerdas apapun sebuah model AI, ia tetaplah mesin yang memproses data dari internet—tempat di mana fakta dan fiksi seringkali bercampur aduk. Verifikasi manusia (human in the loop) tetap menjadi benteng terakhir yang tak tergantikan, terutama ketika “sumber bermasalah” masih bisa lolos dari saringan algoritma tercanggih sekalipun.

