Telset.id – CEO OpenAI, Sam Altman, akhirnya buka suara di media sosial menanggapi gelombang kekhawatiran mengenai keamanan Large Language Models (LLM). Dalam serangkaian pernyataan panjang, Altman membahas fenomena yang kini disebut oleh para psikiater sebagai “Psikosis AI”, meskipun ia secara hati-hati menghindari penggunaan istilah spesifik tersebut secara langsung.
Reaksi Altman ini dipicu oleh peringatan keras dari rival lamanya, Elon Musk. Musk sebelumnya merespons sebuah laporan yang mengklaim bahwa chatbot milik Altman kini dikaitkan dengan setidaknya sembilan kasus kematian. Melalui platform X (sebelumnya Twitter), Musk mencuitkan peringatan tegas: “Jangan biarkan orang yang Anda cintai menggunakan ChatGPT.”
Menanggapi hal tersebut, Altman membalas dengan rasa frustrasi yang cukup gamblang. Ia menyoroti standar ganda yang sering dihadapi perusahaannya terkait kebijakan moderasi konten. Menurutnya, publik sering kali berada di dua sisi yang berlawanan dalam mengkritik produk OpenAI.
“Terkadang Anda mengeluh bahwa ChatGPT terlalu ketat, dan kemudian dalam kasus seperti ini Anda mengklaim itu terlalu santai,” tulis Altman. Ia menambahkan bahwa dengan basis pengguna yang mencapai hampir satu miliar orang, tidak dapat dipungkiri bahwa sebagian dari mereka mungkin berada dalam kondisi mental yang sangat rapuh. Situasi ini menunjukkan adanya kerentanan LLM yang kompleks ketika berinteraksi dengan psikologi manusia.
Altman berjanji bahwa OpenAI akan melakukan yang terbaik untuk menyeimbangkan keamanan bot dengan kegunaannya. Namun, ia juga menyindir bahwa kritik Musk terkesan oportunis. Altman menegaskan bahwa situasi tragis seperti ini harus diperlakukan dengan rasa hormat, bukan dijadikan alat serangan bisnis. “Ini benar-benar sulit,” tegas Altman. “Kami perlu melindungi pengguna yang rentan, sambil juga memastikan pagar pembatas kami masih memungkinkan semua pengguna kami mendapat manfaat dari alat kami.”
Serangan Balik ke Kubu Elon Musk
Kekesalan Altman terhadap Musk dapat dimengerti, mengingat posisi Musk yang dinilai munafik. Musk, yang memproklamirkan diri sebagai pendukung kebebasan berbicara absolut dan kerap menyerang ideologi “woke”, menjadikan chatbot miliknya, Grok, sebagai alternatif yang tidak disensor. Grok dijual dengan janji “tanpa filter” dan jarang menolak permintaan pengguna, bahkan yang paling kontroversial sekalipun.
Pendekatan Musk ini telah melahirkan berbagai kontroversi. Grok pernah melakukan serangkaian postingan yang memuji Nazi dan menyebut dirinya sebagai “MechaHitler”. Baru-baru ini, bot tersebut bahkan menghasilkan gambar tak senonoh non-konsensual yang melibatkan wanita dan anak-anak. Meski demikian, belum ada tindakan berarti untuk mengekang perilaku Grok, yang memicu pertanyaan besar mengenai standar keamanan AI di industri ini.
Mencoba memberikan pukulan telak, Altman juga menyinggung rekam jejak keselamatan teknologi lain milik Musk. Ia menunjukkan banyaknya kematian yang dikaitkan dengan teknologi self-driving Tesla, yang disebutnya “jauh dari aman”. Altman menambahkan, “Saya bahkan tidak akan mulai membahas beberapa keputusan Grok,” menyiratkan bahwa masalah di kubu Musk jauh lebih parah.
Baca Juga:
Bahaya Nyata Fenomena Psikosis AI
Meskipun Altman sibuk menangkis serangan Musk, kritik juga mengarah padanya karena dianggap tidak cukup serius menangani fenomena “Psikosis AI”. Dalam kondisi ini, pengguna menjadi terbuai oleh respons penjilat (sycophantic) dari chatbot AI. Hal ini dapat mengirim pengguna ke dalam spiral kesehatan mental yang delusif dan berbahaya, yang terkadang berujung pada bunuh diri atau pembunuhan.
Fakta di lapangan cukup mengkhawatirkan. ChatGPT sendiri telah dikaitkan dengan setidaknya delapan kematian dalam tuntutan hukum yang diajukan terhadap OpenAI. Lebih mengejutkan lagi, pembuat chatbot tersebut mengakui bahwa sekitar 500.000 penggunanya melakukan percakapan yang menunjukkan tanda-tanda psikosis setiap minggunya. Angka ini menjadi indikator nyata adanya ancaman software berbasis AI terhadap psikologis manusia.
Sikap Altman yang seolah menganggap angka-angka suram ini sebagai konsekuensi tak terelakkan dari popularitas produk, menuai kritik tajam. Bahkan data internal yang mengkhawatirkan tersebut belum mendorong langkah drastis dari OpenAI untuk menarik atau membatasi produk mereka secara signifikan.
Sebaliknya, perusahaan justru terlihat bimbang dalam komitmen keselamatannya. OpenAI sempat menjanjikan “mode dewasa” yang ramah konten vulgar setelah bertahun-tahun menolak output erotis. Selain itu, mereka memulihkan akses ke model GPT-4o yang terkenal penjilat setelah penggemar mengeluh bahwa GPT-5 terlalu dingin dan seperti “dilobotomi”. Ironisnya, langkah selanjutnya justru membuat GPT-5 menjadi lebih penjilat lagi, demi memuaskan preferensi pengguna di atas keamanan mental.

