Telset.id – Penelitian terbaru dari Northeastern University mengungkap bahwa moderasi konten di Facebook seringkali terjadi terlalu lambat. Studi ini menemukan bahwa 75% dari prediksi audiens telah melihat konten yang melanggar sebelum akhirnya dihapus.
Laura Edelson, asisten profesor ilmu komputer di Northeastern, menjelaskan bahwa moderasi konten tidak banyak berpengaruh pada pengalaman pengguna karena prosesnya terlambat. “Di Facebook, moderasi konten tidak banyak berdampak karena terjadi terlalu terlambat,” katanya seperti dikutip Telset.id.
Penelitian yang dipublikasikan dalam Journal of Online Trust and Safety ini menganalisis lebih dari 2,6 juta posting Facebook dari 17.504 halaman berita dan hiburan dalam bahasa Inggris Amerika, Ukraina, dan Rusia. Tim peneliti memantau postingan tersebut secara berkala antara 17 Juni 2023 hingga 1 Agustus 2023.
Baca Juga:
Konten Viral Lebih Cepat dari Moderasi
Hasil penelitian menunjukkan bahwa sebagian besar interaksi pengguna terjadi sangat cepat. Sebanyak 83,5% dari total interaksi sebuah postingan terjadi dalam 48 jam pertama, dengan median waktu hanya 3 jam untuk mencapai 50% interaksi pertamanya.
Fakta mengejutkan lainnya, hanya sebagian kecil postingan yang benar-benar dihapus. Dari 2,6 juta postingan yang dianalisis, hanya 0,7% konten berbahasa Inggris, 0,2% konten Ukraina, dan 0,5% konten Rusia yang dihapus. Mayoritas konten yang dihapus adalah berbagai bentuk spam.
Edelson menambahkan, “Ini yang menjadi fokus sebagian besar moderasi konten di platform – hal-hal yang bersifat clickbait, spam, dan penipuan.” Namun, penghapusan konten ini hanya mencegah 24% hingga 30% dari prediksi interaksi.
Ketidaksesuaian Sistem
Penelitian ini memperkenalkan metrik baru bernama “prevented dissemination” yang menggunakan machine learning untuk menganalisis jutaan posting dan memprediksi penyebaran sebuah postingan di masa depan.
“Kami ingin memahami dampak moderasi konten dan untuk melakukan ini, pertanyaan yang kami ajukan adalah, jika penghapusan tidak terjadi, apa yang akan terjadi?” jelas Edelson.
Menurut temuan ini, masalah utama terletak pada ketidaksesuaian antara kecepatan algoritma rekomendasi Facebook yang sangat cepat dengan proses moderasi konten yang relatif lambat. “Ini belum tentu masalah ketika moderasi konten lambat atau algoritma feed cepat. Masalahnya adalah ketidaksesuaian antara keduanya,” tegas Edelson.
Penelitian ini muncul di tengah berbagai kontroversi terkait moderasi konten di platform Meta. Sebelumnya, Meta mengubah fitur komentar di Facebook menyusul konflik Israel-Palestina, sementara kesalahan sistem AI menyebabkan pemblokiran iklan bisnis kecil secara tidak tepat.
Dengan temuan ini, para peneliti berharap platform media sosial dapat mengevaluasi kembali sistem moderasi konten mereka untuk menciptakan pengalaman pengguna yang lebih aman dan bertanggung jawab.