Telset.id – Gugatan Elon Musk terhadap OpenAI tidak hanya menjadi drama hukum paling panas di Lembah Silikon, tetapi juga membuka tabir kelam soal bagaimana perusahaan rintisan AI paling bernilai di dunia itu mengelola keselamatan teknologinya. Di pengadilan federal Oakland, California, kesaksian para mantan karyawan dan anggota dewan mengungkap bahwa tekanan untuk merilis produk secara komersial telah mengorbankan komitmen awal OpenAI terhadap keamanan artificial general intelligence (AGI).
Anda mungkin bertanya, mengapa sebuah gugatan bisa begitu mengguncang fondasi perusahaan yang didirikan sebagai organisasi nirlaba? Jawabannya sederhana: karena dokumen dan kesaksian yang muncul di persidangan menunjukkan adanya pergeseran budaya yang drastis di internal OpenAI. Dari laboratorium riset yang penuh idealisme, perusahaan perlahan berubah menjadi mesin produk yang agresif.
Mari kita bedah satu per satu temuan penting dari persidangan ini, dan mengapa hal ini relevan bagi masa depan kecerdasan buatan yang kita gunakan sehari-hari.
Dari Riset Murni ke Mesin Produk: Transformasi yang Bermasalah
Salah satu saksi kunci dalam persidangan adalah Rosie Campbell, mantan anggota tim AGI readiness OpenAI yang bergabung pada 2021 dan keluar pada 2024 setelah timnya dibubarkan. Campbell memberikan gambaran yang gamblang tentang perubahan budaya di perusahaan tersebut.
“Ketika saya bergabung, perusahaan ini sangat berfokus pada riset dan orang-orang sering berbicara tentang AGI dan isu keamanan,” ujar Campbell dalam kesaksiannya. “Seiring waktu, perusahaan menjadi lebih seperti organisasi yang berfokus pada produk.”
Pernyataan ini bukan sekadar opini. Campbell adalah bagian dari tim yang secara spesifik dibentuk untuk memastikan bahwa OpenAI siap menghadapi AGI dengan protokol keamanan yang matang. Pembubaran timnya, bersama dengan pembubaran tim Super Alignment pada periode yang sama, menjadi bukti nyata bahwa prioritas perusahaan telah bergeser.
Dalam persidangan, Campbell juga mengakui bahwa pendanaan besar memang diperlukan untuk membangun AGI. Namun, ia menekankan bahwa menciptakan model komputer super-cerdas tanpa langkah keamanan yang tepat sama sekali tidak sesuai dengan misi organisasi yang ia ikuti. Ini adalah dilema klasik: antara kebutuhan akan sumber daya dan komitmen terhadap keselamatan publik.
Insiden GPT-4 di India: Pelanggaran Prosedur yang Berbahaya
Salah satu momen paling mencekam dalam persidangan adalah pengungkapan insiden di India. Campbell bersaksi bahwa Microsoft, mitra utama OpenAI, pernah menggunakan model GPT-4 di mesin pencari Bing untuk pasar India sebelum model tersebut dievaluasi oleh Deployment Safety Board (DSB) OpenAI.
Meskipun model tersebut tidak menimbulkan risiko besar, Campbell menekankan pentingnya “menetapkan preseden yang kuat seiring dengan semakin kuatnya teknologi.” Ia menambahkan, “Kami ingin memiliki proses keamanan yang baik yang kami tahu diikuti dengan andal.”
Insiden ini ternyata menjadi salah satu pemicu utama yang membuat dewan nirlaba OpenAI memecat CEO Sam Altman pada 2023. Saat itu, sejumlah karyawan termasuk kepala ilmuwan Ilya Sutskever dan CTO Mira Murati mengeluhkan gaya manajemen Altman yang konfrontatif dan tidak transparan.
Persidangan semakin memanas ketika Tasha McCauley, anggota dewan nirlaba OpenAI saat itu, memberikan kesaksian yang memberatkan. McCauley mengungkapkan pola umum di mana Altman menyesatkan dewan. Salah satu contohnya adalah ketika Altman berbohong kepada anggota dewan lain tentang niat McCauley untuk mengeluarkan Helen Toner, anggota dewan ketiga yang menerbitkan makalah yang berisi kritik terhadap kebijakan keamanan OpenAI.
“Kami adalah dewan nirlaba dan mandat kami adalah mengawasi entitas nirlaba di bawah kami,” kata McCauley di pengadilan. “Cara utama kami untuk melakukannya sedang dipertanyakan. Kami tidak memiliki keyakinan yang tinggi untuk percaya bahwa informasi yang disampaikan kepada kami memungkinkan kami membuat keputusan dengan cara yang tepat.”
Lebih mengejutkan lagi, Altman juga tidak memberi tahu dewan tentang keputusan untuk meluncurkan ChatGPT secara publik. Kurangnya pengungkapan potensi konflik kepentingan menjadi masalah serius lainnya. Semua ini menunjukkan bahwa tata kelola internal OpenAI, setidaknya pada masa itu, sangat bermasalah.
Dewan Nirlaba yang Tak Berdaya di Hadapan Entitas Komersial
Kegagalan dewan nirlaba untuk mengendalikan entitas nirlaba adalah inti dari argumen hukum Elon Musk. Musk mendirikan OpenAI bersama Sam Altman dan lainnya pada 2015 dengan misi mulia: memastikan bahwa AGI bermanfaat bagi seluruh umat manusia, bukan hanya segelintir perusahaan.
David Schizer, mantan dekan Columbia Law School yang menjadi saksi ahli untuk tim Musk, memperkuat argumen ini. “OpenAI telah menekankan bahwa bagian kunci dari misinya adalah keamanan dan mereka akan memprioritaskan keamanan di atas keuntungan,” kata Schizer. “Bagian dari itu adalah mengambil aturan keamanan dengan serius. Jika sesuatu perlu menjalani tinjauan keamanan, itu harus terjadi. Yang penting adalah masalah proses.”
Schizer dengan tegas mengatakan bahwa yang menjadi sorotan bukanlah apakah insiden tertentu berbahaya atau tidak, melainkan apakah proses dan tata kelola yang ada dijalankan dengan benar. Kegagalan dalam proses inilah yang menjadi dasar gugatan Musk.
Dalam pembelaannya, pengacara OpenAI berusaha menunjukkan bahwa pendekatan keamanan perusahaan masih lebih baik dibandingkan pesaing. Campbell bahkan dipaksa mengakui bahwa menurut “pendapat spekulatifnya,” pendekatan keamanan OpenAI lebih unggul dibandingkan xAI, perusahaan AI milik Musk yang diakuisisi oleh SpaceX awal tahun ini.
Namun, argumen ini terasa lemah ketika dihadapkan pada fakta bahwa OpenAI sendiri enggan mengomentari pendekatan terkini mereka terhadap penyelarasan AGI. Meskipun perusahaan merilis evaluasi model dan kerangka keamanan secara publik, mereka menolak memberikan detail tentang pendekatan internal mereka.
Satu titik terang adalah perekrutan Dylan Scandinaro sebagai kepala kesiapan pada Februari lalu. Scandinaro, yang direkrut dari Anthropic, disebut Altman sebagai orang yang membuatnya bisa “tidur lebih nyenyak di malam hari.” Namun, apakah satu orang bisa menyelesaikan masalah sistemik yang sudah mengakar?
Pelajaran untuk Masa Depan Regulasi AI
Implikasi dari kasus ini jauh melampaui nasib OpenAI atau Elon Musk. McCauley sendiri mengatakan bahwa kegagalan tata kelola internal di OpenAI seharusnya menjadi alasan untuk mendorong regulasi pemerintah yang lebih kuat terhadap AI canggih.
“Jika semuanya tergantung pada satu CEO yang membuat keputusan tersebut, dan kita mempertaruhkan kepentingan publik, itu sangat tidak optimal,” ujar McCauley. Pernyataan ini menggema keras di tengah kekhawatiran global tentang kecepatan pengembangan AI yang melampaui kemampuan regulator untuk mengawasinya.
Bagi Anda yang mengikuti perkembangan ini, kasus ini adalah pengingat bahwa di balik gemerlapnya inovasi AI, ada pertanyaan fundamental yang belum terjawab: siapa yang benar-benar mengawasi para pembuat AI? Dan seberapa besar kita bisa percaya bahwa mereka akan mengutamakan keselamatan publik di atas keuntungan?
Gugatan Elon Musk mungkin tidak akan langsung membongkar OpenAI, tapi setidaknya ia telah berhasil membuka kotak Pandora yang selama ini disembunyikan rapat-rapat. Dan seperti yang sering terjadi dalam sejarah teknologi, terkadang kotak itulah yang justru membawa perubahan paling berarti.
Kita mungkin masih harus menunggu keputusan akhir pengadilan, tapi satu hal sudah pasti: era di mana perusahaan AI bisa beroperasi tanpa pengawasan yang ketat sudah berakhir. Dan untuk itu, kita semua — pengguna, regulator, dan publik — harus berterima kasih pada keberanian para whistleblower dan kesaksian di persidangan ini.
Jika Anda tertarik dengan dinamika lebih dalam antara para raksasa teknologi, jangan lewatkan artikel tentang Pesan Rahasia Zuckerberg yang mengungkap hubungan rumit di era Trump. Dan untuk informasi terkini seputar gugatan lain yang melibatkan Musk, simak juga Gugatan Rasial Tesla yang baru-baru ini kehilangan status class action.




