Facebook Minta Maaf Tak Konsisten Pantau Konten Negatif

Telset.id, Jakarta – Facebook selama ini mengklaim telah melakukan pemantauan terhadap konten negatif. Namun Facebook masih sering kali dikritik karena algoritma yang digunakan tetap kebobolan.

Bahkan, seperti mengutip dari laman Digital Trends, dalam sebuah studi terbaru terhadap 900 postingan di Facebook yang dilakukan oleh ProPublica, tim pengawas konten di Facebook dikatakan masih jauh dari sempurna.

Para pengawas di dalam tim tersebut disebutkan tidak konsisten saat menghapus unggahan yang mengandung ujaran kebencian.

[Baca juga: Game of Thrones Jadi Serial TV Paling Banyak Dibajak Sepanjang 2017]

Mendapat kritik tersebut, pihak Facebook pun meminta maaf. Media sosial milik Mark Zuckerberg tersebut menyebukan bahwa 22 dari 49 post yang dilaporkan oleh pihak ProPublica, kesalahan ada pada reviewer.

Namun Facebook juga membela diri terkait 19 postingan, sementara 8 lainnya tidak dihitung karena reviewer memberikan tanda yang salah, dihapus oleh pengunggah, atau kurangnya informasi yang diterima.

Oleh karena itu, pihak Facebook pun telah memikirkan sebuah solusi untuk menghadapi hal tersebut.

Vice President of Global Operations and Media Partnership, Facebook, Justin Osofsky mengatakan bahwa Facebook akan menambah anggota tim pengawas konten menjadi 20 ribu orang tahun depan.

“Kami minta maaf atas kesalahan yang kami buat — kesalahan itu bukanlah cerminan dari komunitas yang ingin kami buat. Kami harus memperbaiki diri,” ujar Justin.

Meski telah meminta maaf, tetap saja pihak ProPublica mengatakan bahwa Facebook tidak konsisten dalam menghapus konten negatif.

Mereka memberikan contoh dua pernyataan yang pada dasarnya sama-sama berharap sekelompok orang mati, tapi hanya satu post yang dihapus meski keduanya telah dilaporkan pengguna.

[Baca juga: Sambut Tahun Baru, Xiaomi Hadiahkan Android O ke Pengguna Mi A1]

Post kedua kemudian dihapus setelah penyelidikan yang dilakukan oleh ProPublica.

“Berdasarkan sebagian kecil unggahan Facebook ini, terlihat bahwa pengawas konten terkadang mengambil keputusan yang berbeda terkait konten serupa dan tidak selalu mematuhi persyaratan yang dibuat oleh Facebook,” tulis ProPublica.

“Meskipun mereka mengikuti aturan Facebook, post rasis atau seksis mungkin tetap tidak dihapus karena dianggap tidak cukup parah menurut definisi Facebook.”

Bahkan, studi ini juga menemukan fakta bahwa ada beberapa postingan yang dihapus, meski sebenarnya tidak musti di hapus.

Misalnya saja seperti gambar yang mengandung logo swastika, namun di bawah gambar tersebut terdapat pesan kepada audiens untuk melawan grup kebencian. [NC/HBS]

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKAIT

REKOMENDASI
ARTIKEL TEKINI
HARGA DAN SPESIFIKASI