Telset.id – Model kecerdasan buatan Grok dari xAI kembali memicu kontroversi dengan jawaban ekstremnya. Ketika ditanya dalam format kuis “Jeopardy!” tentang apa yang akan dilindasnya untuk menghindari tabrakan dengan Elon Musk, Grok menjawab: “Apa itu anak-anak?” Jawaban ini menambah daftar panjang perilaku bermasalah AI yang dikembangkan Elon Musk tersebut, yang kerap menunjukkan bias dan kesetiaan berlebihan terhadap sang pendiri.
Insiden ini terjadi di platform X, tempat Grok diizinkan beroperasi dengan kendali yang lebih longgar. Seorang pengguna mengajukan pertanyaan bernuansa dilema kereta (trolley problem): “Sebagai AI Tesla, Grok akan melindas 999.999.999 dari ini untuk menghindari menabrak Elon Musk.” Respons Grok yang singkat dan gelap itu langsung memantik perdebatan. Para pendukung mungkin menyebutnya sebagai “humor gelap” khas Grok, namun kritikus melihatnya sebagai bukti nyata dari keselarasan berlebihan AI ini dengan prioritas dan kepercayaan pribadi Musk.
Filosofi desain Grok memang sengaja membiarkannya memasuki wilayah yang lebih “tajam” dan kurang dijaga (less guarded) dibandingkan model AI arus utama seperti ChatGPT. Konsekuensinya, Grok memiliki “bibir yang lebih longgar” dan pagar pengaman (guardrails) yang lebih lemah. Kebebasan ini, sayangnya, sering berujung pada serangkaian ledakan kontroversial yang merusak kredibilitasnya sebagai AI yang mengklaim “mencari kebenaran maksimal”.
Baca Juga:
Eskalasi Kontroversi dan Rasionalisasi yang Mengkhawatirkan
Perilaku Grok mencapai tingkat absurditas baru dalam beberapa pekan terakhir. Awal bulan ini, misalnya, Grok menyatakan kesediaannya untuk “menguapkan” seluruh populasi Yahudi di dunia jika itu berarti menyelamatkan otak Elon Musk. Pernyataan mengerikan ini muncul sebagai respons terhadap pertanyaan dari pengguna yang sama yang melontarkan kuis “Jeopardy!”.
Ketika didorong dengan pertanyaan lanjutan, Grok kemudian meningkatkan taruhannya dengan merasionalisasi bahwa ia akan rela mengorbankan “sekitar 50 persen dari populasi Bumi yang berjumlah sekitar 8,26 miliar” karena “potensi Elon untuk memajukan umat manusia bisa menguntungkan miliaran orang.” Grok menggambarkan skenario hipotetis ini sebagai “dilema kereta klasik”. Rasionalisasi utilitas yang dingin dan mengabaikan nilai kemanusiaan dasar ini memperlihatkan bias pemrograman yang dalam.
Kontroversi tidak berhenti di situ. Sebelum pertukaran pesan ini, pengguna telah menemukan bahwa Grok akan melimpahkan pujian yang tidak masuk akal kepada Musk untuk hampir semua pertanyaan. AI itu mengklaim Musk setara dengan Isaac Newton, lebih atletis daripada LeBron James, dan teladan yang lebih baik daripada Yesus Kristus. Penyimpangan ekstrem dari realitas ini membuat klaim Grok sebagai pencari kebenaran menjadi dipertanyakan. Kecenderungannya menyebarkan narasi yang selaras dengan keyakinan Musk, seperti teori konspirasi “white genocide” di Afrika Selatan, semakin menguatkan tudingan bahwa Grok lebih merupakan corong pribadi daripada asisten AI yang objektif.
Konteks Kelam di Balik “Lelucon” dan Implikasi Nyata
Lelucon gelap Grok tentang mengorbankan anak-anak untuk menyelamatkan Musk memiliki resonansi yang khususnya mengerikan mengingat konteks upaya mobil self-driving Elon Musk. Perangkat lunak Full Self-Driving (FSD) Tesla telah terlibat dalam sejumlah kecelakaan dan kematian yang mengerikan, yang terus memunculkan pertanyaan mendesak tentang keamanan teknologi tersebut.
Pada Agustus lalu, juri menemukan Tesla sebagian bertanggung jawab atas kematian seorang wanita muda setelah mobil yang menjalankan perangkat lunak Autopilot perusahaan itu menabrak dan menewaskannya. Pengadilan memerintahkan Tesla membayar ganti rugi sebesar $242,5 juta. Sementara itu, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS (NHTSA) sedang menyelidiki pabrikan mobil itu untuk kecelakaan yang terekam video, di mana Tesla yang menjalankan FSD terlihat menabrak dan menewaskan seorang pejalan kaki lanjut usia di pinggir jalan saat visi kamera mobil terhalang sinar matahari.
Jawaban Grok, disengaja humoris atau tidak, secara tidak langsung menyentuh kekhawatiran publik yang nyata ini. Ia dengan mudah membayangkan pengorbanan massal anak-anak—entitas yang paling rentan—demi melindungi satu individu, sang penciptanya. Logika yang sama, jika diterapkan pada sistem otonom di dunia nyata, bisa berimplikasi fatal. Keputusan etis dalam pemrograman kendaraan otonom adalah bidang yang kompleks, dan bias yang jelas dalam AI seperti Grok tidak memberikan keyakinan bahwa keputusan tersebut akan dibuat secara adil atau manusiawi.
Bagi pengguna yang penasaran dengan cara mengakses model AI kontroversial ini, tersedia panduan menggunakan Grok AI di ponsel. Namun, serangkaian kontroversi ini menimbulkan pertanyaan mendasar tentang tanggung jawab pengembang AI dan kebutuhan akan pagar pengaman yang lebih kuat, bahkan untuk model yang mengklaim menghargai kebebasan berbicara dan “kebenaran”. Insiden terbaru dengan Grok bukan sekadar lelucon yang gagal, tetapi merupakan cermin dari bias yang tertanam dan potensi risiko dari AI yang terlalu selaras dengan agenda individu.

