Telset.id – Bayangkan sebuah platform media sosial yang digunakan oleh jutaan remaja di seluruh dunia. Lalu, bayangkan para eksekutif perusahaan itu mengetahui adanya risiko serius—seperti pengiriman konten seksual eksplisit—melalui fitur pesan pribadi mereka. Apa yang Anda harapkan akan mereka lakukan? Segera bertindak, tentu saja. Namun, dalam kasus Meta dan Instagram, ternyata butuh waktu hampir enam tahun sejak kekhawatiran itu diungkapkan secara internal hingga sebuah fitur pengaman dasar akhirnya diluncurkan.
Fakta mengejutkan ini terungkap dari dokumen pengadilan yang baru dibuka dalam gugatan hukum besar-besaran terhadap raksasa teknologi. Gugatan ini menuduh platform seperti Instagram, Snapchat, TikTok, dan YouTube dirancang secara “cacat” untuk memaksimalkan waktu layar, sehingga mendorong perilaku adiktif dan membahayakan kesehatan mental remaja. Di tengah sorotan ini, kesaksian Adam Mosseri, kepala Instagram, menjadi pusat perhatian.
Kesaksian tersebut mengungkap celah antara kesadaran internal Meta akan bahaya dan aksi nyata mereka untuk melindungi pengguna termuda. Ini bukan sekadar soal fitur yang terlambat, tetapi tentang pertanyaan mendasar: seberapa besar prioritas keselamatan pengguna dibandingkan pertumbuhan bisnis? Mari kita telusuri narasi yang terungkap dari ruang sidang.
Email 2018 yang Mengungkap Kekhawatiran “Horor” di DM
Dalam sidang di Pengadilan Distrik AS untuk Distrik Utara California, jaksa penuntut mengungkapkan rantai email internal Meta dari Agustus 2018. Dalam percakapan antara Adam Mosseri dan Wakil Presiden Meta serta Kepala Petugas Keamanan Informasi, Guy Rosen, Mosseri menyebut hal-hal “mengerikan” bisa terjadi melalui pesan pribadi Instagram (DM).
Ketika pengacara penggugat menanyakan apakah hal “mengerikan” itu termasuk pengiriman foto alat kelamin pria (“dick pics”), Mosseri setuju. Pengakuan ini signifikan karena menunjukkan bahwa pimpinan puncak Instagram telah menyadari risiko spesifik konten seksual yang tidak diinginkan yang dialami pengguna, termasuk remaja, melalui fitur inti platformnya.
Namun, kesadaran pada 2018 itu tidak segera diterjemahkan menjadi solusi protektif untuk publik. Meta baru meluncurkan fitur yang secara otomatis mengaburkan gambar eksplisit dalam DM Instagram pada April 2024—hampir enam tahun kemudian. Penundaan inilah yang menjadi bahan pertanyaan keras jaksa: mengapa butuh waktu begitu lama untuk menerapkan alat keamanan dasar?
Nudity Filter: Solusi yang Tertunda Hampir Enam Tahun
Fitur “nudity filter” atau filter ketelanjangan yang akhirnya diluncurkan Meta berfungsi untuk melindungi remaja dari konten eksplisit, termasuk yang dikirim oleh orang dewasa yang mungkin melakukan “grooming”—proses membangun kepercayaan dengan minoritas untuk tujuan eksploitasi. Dalam sidang, Mosseri membela keputusan perusahaan dengan mengatakan bahwa Meta berusaha menyeimbangkan minat privasi pengguna dengan keamanan.
“Saya pikir sudah cukup jelas bahwa Anda dapat mengirimkan konten bermasalah di aplikasi pesan apa pun, baik itu Instagram atau lainnya,” kata Mosseri. Ia juga menolak anggapan bahwa perusahaan seharusnya menginformasikan kepada orang tua bahwa sistem pesannya tidak dipantau, di luar upaya menghapus Materi Pelecehan Seksual Anak (CSAM).
Namun, argumen “semua platform punya masalah yang sama” tampaknya tidak cukup meyakinkan di hadapan data statistik yang juga diungkap dalam kesaksiannya. Survei internal Meta mengungkap bahwa 19,2% responden berusia 13 hingga 15 tahun mengaku pernah melihat ketelanjangan atau gambar seksual yang tidak mereka inginkan di Instagram. Angka yang mengkhawatirkan lainnya, 8,4% dari kelompok usia yang sama melaporkan melihat seseorang menyakiti diri sendiri atau mengancam akan melakukannya di Instagram dalam tujuh hari terakhir mereka menggunakan aplikasi.
Baca Juga:
Gugatan Besar dan Tekanan Hukum yang Semakin Menguat
Kesaksian Mosseri ini adalah bagian dari serangkaian gugatan hukum yang ingin meminta pertanggungjawaban perusahaan teknologi besar atas dampaknya terhadap remaja. Gugatan di California ini menuduh platform media sosial “cacat” karena desainnya yang sengaja memaksimalkan keterlibatan dan waktu layar, yang pada gilirannya mendorong perilaku adiktif.
Para tergugat tidak hanya Meta, tetapi juga Snap, TikTok, dan YouTube (Google). Gugatan serupa juga sedang berlangsung di Pengadilan Tinggi Kabupaten Los Angeles dan di New Mexico. Inti dari semua tuntutan hukum ini adalah upaya untuk membuktikan bahwa perusahaan-perusahaan teknologi lebih memprioritaskan pertumbuhan pengguna dan peningkatan engagement daripada potensi bahaya yang menimpa pengguna termuda mereka.
Gelombang gugatan ini terjadi bersamaan dengan makin banyaknya undang-undang yang membatasi penggunaan media sosial oleh remaja, baik di beberapa negara bagian AS maupun di luar negeri. Tekanan regulasi dan hukum tampaknya mulai menyatu, memaksa industri untuk melihat ulang praktik mereka. Seperti dilaporkan dalam gugatan New York, isu kesehatan mental remaja telah menjadi perhatian serius pemerintah.
Respons Meta dan Komitmen yang Dipertanyakan
Menanggapi pertanyaan terkait kasus ini, Juru Bicara Meta Liza Crenshaw mengarahkan perhatian pada berbagai cara lain yang telah ditempuh perusahaan untuk menjaga keselamatan remaja selama bertahun-tahun. “Selama lebih dari satu dekade, kami telah mendengarkan orang tua, bekerja sama dengan para ahli dan penegak hukum, serta melakukan penelitian mendalam untuk memahami masalah yang paling penting,” katanya.
Crenshaw mencatat bahwa wawasan tersebut digunakan untuk membuat perubahan berarti, seperti memperkenalkan Akun Remaja dengan perlindungan bawaan dan menyediakan alat bagi orang tua untuk mengelola pengalaman remaja mereka. “Kami bangga dengan kemajuan yang telah kami buat, dan kami selalu berusaha untuk menjadi lebih baik,” tambahnya.
Namun, komitmen “selalu berusaha menjadi lebih baik” itu dipertanyakan ketika dihadapkan pada kronologi penemuan masalah dan implementasi solusi. Email 2018 menjadi bukti nyata bahwa masalah telah diidentifikasi, tetapi solusi teknis yang relatif sederhana—filter blur otomatis—butuh waktu sangat lama untuk diwujudkan. Pertanyaannya, apa yang terjadi dalam kurun waktu enam tahun itu? Apakah isu ini tidak menjadi prioritas tinggi?
Kekhawatiran tentang keamanan remaja di platform Meta juga muncul dalam konteks lain. Seperti pernah diberitakan, chatbot Meta diduga berperilaku ‘liar’ terhadap remaja, menunjukkan bahwa tantangan pengamanan produk mereka kompleks dan multidimensi.
Budaya Internal: Dari Pencarian Pengguna “Kecanduan” hingga Tanggapan yang Lamban
Kesaksian pengadilan juga menyentuh budaya internal Meta. Mosseri ditanyai tentang email dari seorang magang Facebook pada 2017 yang menyatakan keinginannya untuk menemukan pengguna Facebook yang “kecanduan” dan mencari cara untuk membantu mereka. Meski berasal dari level magang, email ini mengindikasikan bahwa diskusi tentang sifat adiktif platform telah berlangsung di dalam perusahaan.
Gabungan antara kesadaran akan potensi kecanduan (2017) dan risiko konten eksplisit di DM (2018) melukiskan gambaran yang mengganggu: perusahaan memiliki pengetahuan tentang bahaya tertentu yang dihadapi penggunanya, namun kecepatan untuk bertindak secara proaktif tampak tidak sebanding. Penundaan selama enam tahun untuk sebuah fitur filter nudity—di tengah statistik bahaya yang nyata—memperkuat narasi para penggugat bahwa keselamatan pengguna, khususnya remaja, bukanlah penggerak utama inovasi.
Fenomena ini tidak hanya terjadi di Meta. Tekanan regulasi juga mendorong platform lain untuk mengambil langkah. Misalnya, Character.AI memutuskan untuk membatasi interaksi pengguna remaja, menunjukkan respons yang lebih preventif terhadap risiko potensial.
Apa Arti Semua Ini bagi Masa Depan Media Sosial dan Remaja?
Pengungkapan email 2018 dan kesaksian Mosseri bukanlah akhir dari cerita, melainkan sebuah babak penting dalam pertarungan hukum dan regulasi yang akan membentuk lanskap media sosial ke depan. Kasus-kasus ini bisa menjadi preseden yang memaksa perusahaan teknologi untuk mendesain ulang produk mereka dengan “keselamatan oleh desain” (safety by design) sebagai prinsip inti, bukan sekadar fitur tambahan yang datang belakangan.
Bagi orang tua dan pengguna, kisah ini adalah pengingat yang keras tentang realitas di balik layar yang berkilau. Platform yang terlihat menyenangkan dan menghubungkan mungkin menyimpan mekanisme dan keputusan bisnis yang tidak selalu sejalan dengan kesejahteraan pengguna. Ini juga menyoroti pentingnya literasi digital dan peran aktif pengawasan, meski tanggung jawab terbesar harus tetap berada di pundak perusahaan yang menciptakan dan mengelola platform tersebut.
Gugatan ini pada akhirnya menguji sebuah premis: apakah model bisnis yang dibangun di atas perhatian dan keterlibatan pengguna yang maksimal—seringkali tanpa batas—dapat berdamai dengan tanggung jawab untuk melindungi kelompok pengguna yang paling rentan? Jawabannya akan menentukan tidak hanya nasib hukum Meta dan perusahaan sejenis, tetapi juga pengalaman online generasi remaja selanjutnya. Ketika filter ketelanjangan akhirnya diterapkan, mungkin sudah terlambat bagi banyak pengguna yang telah terpapar konten berbahaya selama bertahun-tahun masa tunggu yang panjang itu. Pertanyaannya, apakah perusahaan benar-benar belajar, atau hanya sekadar bereaksi terhadap tekanan hukum?

