Facebook Hapus Jutaan Foto Vulgar Anak-anak di Bawah Umur

REKOMENDASI
ARTIKEL TERKAIT

Telset.id, Jakarta – Facebook pada Rabu (24/10/2018), mengatakan bahwa selama kuartal terakhir, mereka sudah menghapus lebih dari 8,7 juta foto vulgar anak-anak di bawah umur, berkat bantuan  software khusus.

Facebook sebelumnya telah merahasiakan software tersebut, yang dapat secara otomatis menandai unggahan yang melanggar aturan.

Software berbasis machine learning ini, telah beroperasi selama setahun terakhir. Dengan menggunakannya, Facebook berhasil mengidentifikasi foto sensual anak-anak.

Dilansir Telset.id dari CNBC, Kamis (25/10/2018), software ini juga memungkinkan Facebook untuk mengidentifikasi pengguna yang sedang merayu atau berteman dengan anak-anak di bawah umur untuk eksploitasi seksual.

Menurut Kepala Keamanan Global Facebook, Antigone Davis, software khusus tersebut mampu membantu memprioritaskan dan membuat daftar konten yang bermasalah secara lebih efisien bagi tim peninjau Facebook. Ia juga mengungkapkan, bahwa ada kemungkinan Facebook menerapkan teknologi yang sama di Instagram.

Software berbasis machine learning ini sendiri merupakan janji Facebook untuk mempercepat penghapusan materi ekstrimis dan terlarang. Software tersebut juga menjadi jawaban atas tekanan dari regulator dan anggota parlemen yang mewajibkan Facebook menyaring miliaran konten dari pengguna setiap harinya.

Walaupun demikian, Davis mengakui bahwa sistem itu bisa saja berbuat kesalahan. Sebagai solusinya, pengguna tetap dapat mengajukan keberatan kepada Facebook.

“Kami lebih suka berbuat salah pada sisi hati-hati dengan anak-anak,” katanya.

Selama bertahun-tahun, Facebook telah melarang foto keluarga yang menampilkan anak-anak dengan pakaian mini. Facebook khawatir, foto-foto tersebut akan disalahgunakan oleh orang yang tidak bertanggung jawab.

Sebelum menggunakan sistem yang baru, Facebook mengandalkan laporan pengguna atau filter khusus untuk memblokir foto vulgar anak-anak di bawah umur. Melalui cara itu, Facebook berhasil memblokir sebagian konten pornografi anak yang telah dilaporkan kepada pihak berwenang.

Facebook mengatakan, sistem barunya telah mempelajari koleksi foto-foto sensual, termasuk anak-anak untuk segera dihapus. Meski begitu, raksasa media sosial ini membuat pengecualian untuk foto seni dan sejarah, seperti foto pemenang Hadiah Pulitzer yang menampilkan seorang gadis telanjang yang melarikan diri dari serangan napalm saat Perang Vietnam.

Diungkapkan Kepala Kantor di National Center for Missing and Exploited Children (NCMEC), Michelle DeLaune, organisasinya menerima sekitar 16 juta laporan terkait pornografi anak di tahun ini dari Facebook dan perusahaan teknologi lainnya. Jumlah tersebut naik 10 juta dibandingkan tahun lalu.

Dengan peningkatan itu, NCMEC mengatakan akan bekerja sama dengan Facebook untuk mengembangkan software khusus yang dapat memutuskan laporan mana yang dinilai perlu ditindaklanjuti lebih dulu atau tidak.

Namun, DeLaune mengakui bahwa kendala yang krusial adalah aplikasi chatting yang dienkripsi dan situs dark web rahasia, di mana banyak konten pornografi anak berasal.

Enkripsi pesan di WhatsApp milik Facebook misalnya, mencegah dari machine learning yang akan menganalisanya. DeLaune mengatakan, NCMEC akan memberitahu perusahaan teknologi dan berharap mereka dapat mencari cara untuk mengatasi masalah ini. (BA/FHP)

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini


ARTIKEL TEKINI
HARGA DAN SPESIFIKASI