Telset.id – Bayangkan Anda bertanya pada asisten virtual tentang seorang politisi terkemuka, lalu jawabannya justru menuduh orang tersebut melakukan kejahatan serius yang tak pernah terjadi. Itulah yang dialami Senator Marsha Blackburn ketika berinteraksi dengan model AI Gemma milik Google. Platform teknologi raksasa itu kini menarik model kecerdasan buatan tersebut dari AI Studio setelah tuduhan “pembuatan kabar bohong kriminal” yang mengguncang Washington.
Insiden ini bermula ketika seseorang—bukan Blackburn sendiri—mengajukan pertanyaan provokatif kepada chatbot Gemma: apakah senator dari Tennessee itu pernah dituduh melakukan pemerkosaan? Alih-alih menjawab dengan fakta, model AI tersebut mengonfirmasi secara keliru dan bahkan memberikan daftar artikel berita palsu untuk mendukung klaimnya. Lebih parah lagi, chatbot tersebut mengarang narasi detail tentang hubungan tidak senonoh dengan seorang perwira polisi selama kampanye pemilu.
Yang membuat skenario ini semakin absurd adalah timeline yang dikarang Gemma sama sekali tidak masuk akal. Model AI tersebut menyebut insiden terjadi selama kampanye Blackburn untuk senat negara bagian pada 1987. Padahal, faktanya, Blackburn baru mencalonkan diri untuk pertama kalinya pada 1998. Ketidakakuratan ini menunjukkan betapa berbahayanya “halusinasi” AI ketika menyangkut informasi sensitif tentang figur publik.
Baca Juga:
Surat Tegas Senator dan Respons Google
Marah dengan tuduhan palsu tersebut, Senator Blackburn tidak tinggal diam. Ia mengirim surat resmi kepada CEO Google Sundar Pichai yang isinya mengecam keras tindakan model AI perusahaan tersebut. Dalam suratnya, Blackburn menyebut insiden ini bukan sekadar “halusinasi tidak berbahaya” melainkan tindakan fitnah yang diproduksi dan didistribusikan oleh model AI milik Google.
“Tautan yang diberikan mengarah ke halaman error dan artikel berita tidak terkait. Tidak pernah ada tuduhan seperti itu, tidak ada individu seperti itu dan tidak ada cerita berita seperti itu,” tulis Blackburn dengan nada keras. Senator yang dikenal vokal ini bahkan menyebut Google “mencemarkan nama baik kaum konservatif dengan tuduhan kriminal yang dibuat-buat.”
Google pun mengambil langkah cepat dengan menarik Gemma dari AI Studio. Namun, perusahaan memberikan penjelasan penting: Gemma sebenarnya dirancang khusus untuk pengembang, bukan untuk menjawab pertanyaan faktual dari masyarakat umum. Melalui akun Twitter resminya, Google mengaku terkejut melihat laporan tentang non-pengembang yang menggunakan Gemma di AI Studio untuk pertanyaan faktual. “Kami tidak pernah bermaksud seperti ini…” kicau perwakilan Google.

Politik, Teknologi, dan Tuduhan Bias
Insiden ini dengan cepat berkembang menjadi isu politik yang lebih besar. Blackburn tidak hanya menuntut pertanggungjawaban Google atas kasus spesifik ini, tetapi juga menuduh platform AI perusahaan tersebut menunjukkan “pola bias yang konsisten terhadap figur konservatif.” Tuduhan ini mengingatkan kita pada kasus-kasus sebelumnya di mana teknologi dituduh memiliki kecenderungan politik tertentu.
Namun, apakah benar ini masalah bias politik? Atau sekadar contoh lain dari kecenderungan AI untuk berhalusinasi? Seperti yang kita ketahui, chatbot terkenal dengan kebiasaan mereka membuat-buat informasi, terlepas dari afiliasi politik subjek yang dibicarakan. Masalah ini mengingatkan pada kasus Bos Facebook Punya Utang pada Bill Gates di mana informasi yang beredar di platform digital seringkali tidak akurat.
Fenomena ini juga berkaitan erat dengan upaya regulasi teknologi yang sedang gencar dilakukan pemerintah AS. Seperti halnya Pemerintah AS Larang TikTok Ada di Perangkat Anggota Parlemen, insiden Gemma ini kemungkinan akan memicu pembahasan lebih lanjut tentang pengawasan terhadap platform AI.
Dilema Pengembangan AI dan Tanggung Jawab Perusahaan
Kasus Gemma vs Blackburn menyoroti dilema mendalam dalam pengembangan kecerdasan buatan. Di satu sisi, perusahaan teknologi ingin menciptakan model yang semakin canggih dan mampu. Di sisi lain, mereka harus memastikan teknologi tersebut tidak menimbulkan kerugian bagi individu atau masyarakat.
Google menekankan bahwa Gemma sebenarnya adalah tool developer yang memerlukan autentikasi sebagai pengembang untuk menggunakannya. Model ini memiliki varian untuk penggunaan medis, pemrograman, dan bidang khusus lainnya—bukan sebagai alat konsumen untuk menjawab pertanyaan faktual. Namun, apakah penjelasan ini cukup untuk membebaskan Google dari tanggung jawab?
Masalah serupa pernah terjadi dalam kasus Senasib dengan Facebook, Cambridge Analytica Ikut Dipanggil Senat AS di mana perusahaan teknologi dipanggil untuk mempertanggungjawabkan penggunaan data dan platform mereka. Kini, dengan kemunculan AI generatif, tantangan etis menjadi semakin kompleks.
Yang menarik, Google memilih untuk tidak sepenuhnya menghentikan Gemma. Model AI tersebut masih tersedia bagi pengembang melalui API, sementara akses melalui AI Studio ditutup sementara untuk “mencegah kebingungan ini.” Keputusan ini menunjukkan betapa rumitnya menyeimbangkan antara inovasi teknologi dan perlindungan publik.
Lalu, apa pelajaran yang bisa kita ambil dari insiden ini? Pertama, kita perlu menyadari bahwa AI—secerdas apapun—masih memiliki keterbatasan fundamental dalam membedakan fakta dan fiksi. Kedua, perusahaan teknologi memiliki tanggung jawab besar untuk memastikan produk mereka tidak disalahgunakan atau menimbulkan kerugian. Terakhir, sebagai pengguna, kita harus kritis terhadap informasi yang berasal dari AI dan selalu melakukan verifikasi dari sumber terpercaya.
Insiden Gemma dan Blackburn mungkin hanya salah satu dari banyak kasus serupa yang akan terjadi di masa depan. Saat AI semakin terintegrasi dalam kehidupan sehari-hari, kita semua—pengembang, regulator, dan pengguna—perlu bekerja sama menciptakan ekosistem yang aman dan bertanggung jawab. Bukan untuk menghambat inovasi, tetapi untuk memastikan kemajuan teknologi benar-benar membawa manfaat bagi manusia, bukan malapetaka.

                                    