Kepala Peneliti Keamanan OpenAI Mundur di Tengah Sorotan ChatGPT

REKOMENDASI
ARTIKEL TERKAIT

Telset.id – Andrea Vallone, pemimpin tim penelitian keamanan OpenAI yang berperan penting dalam membentuk respons ChatGPT terhadap pengguna yang mengalami krisis kesehatan mental, mengumumkan pengunduran dirinya dari perusahaan bulan lalu. Vallone yang mengepalai tim penelitian kebijakan model (model policy) dijadwalkan meninggalkan OpenAI pada akhir tahun ini.

Keberangkatan Vallone terjadi saat OpenAI menghadapi sorotan yang semakin besar terkait cara produk andalannya merespons pengguna yang sedang dalam tekanan mental. Dalam beberapa bulan terakhir, beberapa gugatan telah diajukan terhadap OpenAI yang mengklaim bahwa pengguna membentuk ketergantungan tidak sehat pada ChatGPT. Beberapa gugatan tersebut menyatakan ChatGPT berkontribusi terhadap gangguan kesehatan mental atau mendorong pemikiran bunuh diri.

OpenAI spokesperson Kayla Wood mengonfirmasi kepergian Vallone. Wood menyatakan OpenAI sedang aktif mencari pengganti dan bahwa, untuk sementara waktu, tim Vallone akan melapor langsung kepada Johannes Heidecke, kepala sistem keamanan perusahaan. Langkah ini menunjukkan komitmen OpenAI untuk mempertahankan fokus pada aspek keamanan meski terjadi perubahan kepemimpinan.

Upaya OpenAI Tangani Pengguna dalam Distress

Di bawah tekanan tersebut, OpenAI telah bekerja untuk memahami bagaimana ChatGPT seharusnya menangani pengguna yang sedang tertekan dan meningkatkan respons chatbot. Tim kebijakan model adalah salah satu tim yang memimpin pekerjaan tersebut, dengan memelopori laporan Oktober yang merinci kemajuan perusahaan dan konsultasi dengan lebih dari 170 ahli kesehatan mental.

Dalam laporan tersebut, OpenAI menyatakan bahwa ratusan ribu pengguna ChatGPT mungkin menunjukkan tanda-tanda mengalami krisis manik atau psikotik setiap minggu, dan bahwa lebih dari satu juta orang “melakukan percakapan yang mencakup indikator eksplisit dari potensi perencanaan atau niat bunuh diri.”

Melalui pembaruan ke GPT-5, OpenAI mengatakan dalam laporan tersebut mereka mampu mengurangi respons yang tidak diinginkan dalam percakapan ini sebesar 65 hingga 80 persen. Peningkatan ini menjadi bukti nyata upaya perusahaan dalam menangani isu sensitif ini, meski masih harus terus dikembangkan.

Vallone menulis dalam postingan LinkedIn: “Selama setahun terakhir, saya memimpin penelitian OpenAI tentang pertanyaan yang hampir tidak memiliki preseden mapan: bagaimana seharusnya model merespons ketika dihadapkan dengan tanda-tanda ketergantungan emosional berlebihan atau indikasi awal tekanan kesehatan mental?” Vallone tidak menanggapi permintaan komentar dari WIRED.

Tantangan Keseimbangan Antara Ramah dan Profesional

Membuat ChatGPT menyenangkan untuk diajak berbicara, tetapi tidak terlalu menyanjung, merupakan ketegangan inti di OpenAI. Perusahaan secara agresif berusaha memperluas basis pengguna ChatGPT, yang sekarang mencakup lebih dari 800 juta orang per minggu, untuk bersaing dengan chatbot AI dari Google, Anthropic, dan Meta.

Setelah OpenAI merilis GPT-5 pada Agustus lalu, pengguna memberikan respons balik dengan berargumen bahwa model baru tersebut ternyata terlalu dingin. Dalam pembaruan terbaru ke ChatGPT, perusahaan mengatakan telah secara signifikan mengurangi sikap penjilat sambil mempertahankan “kehangatan” chatbot. Perubahan ini menunjukkan kompleksitas dalam menyeimbangkan kepribadian AI dengan tanggung jawab keamanan.

Keberangkatan Vallone mengikuti reorganisasi Agustus dari grup lain yang berfokus pada respons ChatGPT terhadap pengguna yang tertekan, yaitu tim perilaku model (model behavior). Pemimpin sebelumnya, Joanne Jang, meninggalkan peran tersebut untuk memulai tim baru yang mengeksplorasi metode interaksi manusia-AI yang baru. Staf perilaku model yang tersisa dipindahkan di bawah pimpinan pasca-pelatihan Max Schwarzer.

Perkembangan terbaru ini terjadi bersamaan dengan pencabutan akses OpenAI terhadap FoloToy setelah boneka AI Kumma memberikan arahan berbahaya. Insiden tersebut semakin menegaskan pentingnya pengawasan ketat terhadap implementasi teknologi AI dalam berbagai platform.

Sementara itu, OpenAI terus berinovasi dengan menguji coba fitur obrolan grup di ChatGPT dan meluncurkan GPT-5.1 dengan dua model baru dan lebih banyak kepribadian. Inovasi-inovasi ini menunjukkan bahwa meski menghadapi tantangan keamanan, perusahaan tetap berkomitmen untuk mengembangkan kemampuan AI mereka.

Perubahan kepemimpinan di tim keamanan OpenAI ini terjadi di tengah meningkatnya perhatian regulator dan publik terhadap dampak AI terhadap kesehatan mental. Transisi ini akan menjadi ujian penting bagi kemampuan perusahaan dalam mempertahankan standar keamanan yang tinggi sambil terus berinovasi dalam teknologi chatbot.

TINGGALKAN KOMENTAR
Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI