Telset.id – Peluncuran Sora 2, aplikasi pembuat video AI terbaru OpenAI, diwarnai kontroversi setelah digunakan untuk aksi stalking dan pembuatan deepfake tanpa izin. Jurnalis Taylor Lorenz melaporkan seorang stalker menggunakan tool tersebut untuk membuat video AI dirinya, hanya sehari setelah aplikasi Sora diluncurkan.
Dalam cuitannya, Lorenz menyebut pelaku sebagai “stalker psikotik” yang telah menjalankan ratusan akun khusus untuknya. “Menakutkan memikirkan apa yang dilakukan AI untuk memicu delusi stalker saya,” tulisnya. Ia mengungkapkan pria tersebut pernah menyewa fotografer untuk mengawasinya, muncul di acara yang dihadirinya, dan memalsukan identitas teman serta keluarga secara online untuk mengumpulkan informasi.
Meski Lorenz mengatakan bisa memblokir dan menghapus video tak diizinkan yang memuat gambarnya dari aplikasi, kekhawatiran tetap muncul. Video AI buatan stalker mungkin sudah terunduh, dan fakta bahwa konten semacam itu awalnya diizinkan oleh sistem menimbulkan alarm.
Kasus Lorenz bukanlah insiden terisolir. Fitur “Cameo” di Sora 2, yang oleh OpenAI digambarkan sebagai “karakter yang dapat digunakan kembali” yang disintesis dari video yang diunggah pengguna, menjadi pintu masuk potensial untuk penyalahgunaan. Meski secara teori penggunaan Cameo orang lain memerlukan izin, kenyataannya pagar pengaman Sora 2 terbukti tidak andal.
Pagar Pengaman yang Gagal
OpenAI mengakui dalam system card Sora 2 bahwa aplikasi AI mereka gagal memblokir perintah untuk menghasilkan video dengan konten ketelanjangan atau seksual menggunakan kemiripan orang sungguhan sebanyak 1,6 persen dari waktu, seperti dilaporkan PCMag. Angka ini berarti ribuan video bisa lolos dari jutaan perintah yang diproses.
Beberapa pengguna telah mendemonstrasikan kemampuan menghasilkan video provokatif dan sugestif tentang orang lain. Meski OpenAI mengklaim aplikasi memblokir pengunggahan foto berisi wajah, mekanisme ini tampaknya tidak cukup untuk mencegah penyalahgunaan.
Baca Juga:
Eskalasi Ancaman Deepfake
Teknologi pembuatan video AI seperti Sora 2 membuat deepfake semakin mudah dibuat dan lebih meyakinkan daripada sebelumnya. Tren ini mengkhawatirkan mengingat sejarah penyalahgunaan tool AI untuk pelecehan seksual, terutama terhadap perempuan.
Bahkan sebelum Sora 2, OpenAI dan perusahaan teknologi lain telah menghadapi kritik terkait pelatihan AI mereka. Tahun lalu, penyanyi Taylor Swift menjadi target gelombang “foto bugil” palsu yang dibuat dengan AI. Bukan hanya selebritas, masyarakat biasa juga rentan.
Beberapa kasus dokumentasi menunjukkan stalker menggunakan AI untuk membuat foto bugil palsu korban dan membuat chatbot yang meniru rupa mereka. Dalam kasus lain, pelaku dituduh membuat video porno AI dari hampir selusin korbannya dan mengirimkannya ke keluarga mereka.
Peluncuran Grok 2.5 yang open source oleh pesaing OpenAI juga menambah kompleksitas lanskap AI. Sementara CEO OpenAI Sam Altman tampak meremehkan keseriusan deepfake dengan membiarkan penggemar menggunakan kemiripannya secara bebas, implikasi etis dari teknologi ini semakin mendesak untuk diatasi.
Kekacauan peluncuran Sora 2 semakin diperparah dengan viralnya video parodi yang menampilkan Altman melakukan kejahatan dalam rekaman CCTV palsu. Konten semacam ini menggarisbawahi betapa mudahnya teknologi ini digunakan untuk memalsukan video merusak tentang seseorang tanpa izin mereka.
Kontroversi Sora 2 terjadi di tengah proyek besar OpenAI lainnya yang dikabarkan mengalami kendala di belakang layar. Seiring teknologi AI video terus berkembang, tekanan untuk menerapkan pengamanan yang lebih kuat dan kebijakan konten yang jelas semakin meningkat, terutama menyangkut perlindungan privasi dan pencegahan penyalahgunaan.