OpenAI Luncurkan Safety Evaluations Hub, Transparansi atau Sekadar Pencitraan?

REKOMENDASI

ARTIKEL TERKAIT

Telset.id – Di tengah gugatan hukum dan kontroversi penggunaan data pelatihan, OpenAI meluncurkan Safety Evaluations Hub—sebuah langkah yang diklaim sebagai upaya transparansi. Namun, benarkah ini solusi tuntas atau sekadar pencitraan belaka?

OpenAI resmi memperkenalkan Safety Evaluations Hub, sebuah halaman web baru yang memublikasikan informasi terkait kinerja model AI-nya. Mulai dari tingkat “halusinasi” (hallucination rates), konten berbahaya, hingga upaya jailbreak, semua akan tercantum di sini. Langkah ini disebut-sebut sebagai bentuk akuntabilitas perusahaan di tengah berbagai tuntutan hukum yang membayanginya.

Namun, ada ironi yang tak bisa diabaikan. Di satu sisi, OpenAI berkoar tentang transparansi. Di sisi lain, perusahaan ini masih bergulat dengan tuduhan penggunaan data ilegal untuk melatih model AI-nya. Bahkan, The New York Times mengklaim bukti dalam kasus plagiarisme sengaja dihapus oleh OpenAI. Lantas, seberapa kredibel inisiatif terbaru ini?

Safety Evaluations Hub: Antara Janji dan Realita

Menurut OpenAI, hub ini akan menjadi penyempurnaan dari “system cards”—dokumen yang hanya merinci langkah keamanan saat peluncuran produk. Bedanya, Safety Evaluations Hub akan memberikan pembaruan berkala. “Kami berkomitmen berbagi perkembangan evaluasi kemampuan dan keamanan model AI,” tulis OpenAI dalam pengumumannya.

Antarmuka Safety Evaluations Hub OpenAI

Di hub tersebut, publik bisa melihat data model seperti GPT-4.1 hingga 4.5. Namun, OpenAI mengingatkan bahwa informasi yang diberikan hanyalah “snapshot”. Artinya, detail lengkap tetap harus merujuk pada dokumen resmi lainnya. Pertanyaannya: jika memang ingin transparan, mengapa tidak sekalian membuka akses penuh?

Masalah Utama: OpenAI Jadi Hakim bagi Dirinya Sendiri

Inilah titik kritisnya: evaluasi keamanan ini sepenuhnya dilakukan oleh OpenAI sendiri. Tidak ada pihak independen yang memverifikasi atau memvalidasi hasilnya. Dengan kata lain, perusahaan bisa memilih mana data yang dibagikan dan mana yang disembunyikan. Seperti memberi kunci gudang pada penjaga yang pernah ketahuan mencuri.

Apalagi, kasus pencurian data yang melibatkan Microsoft dan DeepSeek menunjukkan betapa rapuhnya ekosistem AI saat ini. Jika OpenAI serius dengan transparansi, mengapa tidak mengundang auditor eksternal?

Di sisi lain, langkah ini bisa jadi respons atas tekanan komunitas AI yang semakin kritis. Dengan memberdayakan pengguna untuk membuat model ChatGPT sendiri, OpenAI mungkin sedang berusaha membangun kepercayaan. Tapi ingat, kepercayaan tidak bisa dibangun hanya dengan selebaran digital.

Jadi, apakah Safety Evaluations Hub ini terobosan atau sekadar kamuflase? Jawabannya mungkin terletak pada apa yang tidak diungkapkan—bukan pada apa yang dipamerkan.

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI

HARGA DAN SPESIFIKASI