Gawat, Kata “Hot” di Google Images Identik dengan Pornografi

Telset.id, Jakarta – Kelemahan machine learning milik Google telah mengakibatkan anak-anak terpapar gambar-gambar yang tidak pantas untuk usia mereka. Hampir secara eksklusif, Google menampilkan wanita yang hanya mengenakan pakaian dalam ketika mengetik kata “Hot” dalam pencarian.

Parahnya lagi, ini tetap terjadi meski fitur pencarian aman sudah diaktifkan, yang menurut keterangan di website, itu dapat menyaring hasil eksplisit.

Sebagian pengguna mungkin berharap Google Images akan menampilkan gambar pantai yang cerah, es krim, atau peristiwa kebakaran, saat menelusuri kata “Hot”.

Namun nyatanya, yang muncul malah jauh dari itu semua. Bahkan Google tak jarang menampilkan foto-foto  bintang porno semisal Mia Khalifa dan  Samantha Saint.

Baca juga: Tambah Pintar, Google AI Bisa Beri Rating Foto

Kelemahan mesin pencarian Google ini terungkap setelah seorang guru sekolah mengeluh di Forum Bantuan Penelusuran resmi Google, yang terlihat oleh situs Search Engine Roundtable.

“Kami adalah sekolah dasar dengan siswa berusia antara 5 tahun dan 12 tahun,” tulis guru bernama Shona Poppe.

Ia menuturkan, saat itu seorang muridnya yang masih berusia delapan tahun melakukan pencarian kata ‘Hot’ sebagai tugas, dan menerjemahkan kata itu ke dalam bahasa Māori.

“Anak itu menemukan halaman lengkap pornografi, meskipun kami telah mengaktifkan Pencarian Aman melalui layanan penyaringan kami dan di komputer kami. Apakah ada cara lain agar kita bisa lebih ramah terhadap anak-anak ini?” tulisnya.

thesun.co.uk telah mencoba mengonfirmasi masalah ini. Hasilnya, meski fitur ‘Safe Search’ dihidupkan dan  menggunakan mode Incognito atau Penyamaran, hasilnya tetap sama saja.

Baca juga: Google Photos Kini Bisa Kenali Binatang Peliharaan

Ada kemungkinan, ini ada kaitannya dengan pembaruan sistem pencarian Google Images. Perusahaan tampaknya benar-benar mengubah Google Images sebagai bagian dari perayaan ulang tahunnya yang ke-20.

Seorang pengguna Twitter menulis,  Google telah membuat perubahan pada mesin pencari gambar.

Ia mengatakan, sekarang ketika anda pergi ke Google Image Search dan mencari istilah ‘hot’ , satu-satunya gambar yang muncul adalah gambar wanita dalam pakaian dalam, pakaian dalam, pakaian renang dan sejenisnya.

“Tidak ada foto kopi panas, makanan pencuci mulut, perapian. Ups,” tulisnya.

Tak hanya itu, saat kita menelusuri istilah “hot”, Google juga menawarkan penelusuran yang disarankan, berdasarkan istilah aslinya. Namun, sebagian besar tautan ini bahkan mengarah ke konten yang lebih tidak pantas.

Salah satu rekomendasi yang menonjol adalah untuk “Croatian”, yang akan membawa kita ke halaman yang diisi dengan wanita Kroasia.

Sementara itu ketika kita melakukan pencarian menggunakan kata “Disney”, sebuah istilah yang dapat dengan mudah diklik oleh seorang anak, akan membawa kita ke halaman yang dipenuhi dengan gambar-gambar karakter Disney.

Seharunya mode pencarian aman atau ‘Safe Search’ Google dirancang untuk melindungi anak-anak. Fitur ini menggunakan teknologi machine learning dan computer vision, untuk mencari tahu gambar yang tampak tidak pantas, dan menyembunyikannya ketika mode Safe Search diaktifkan.

Dengan percobaan di atas, Google jelas gagal dan ini dapat membahayakan anak-anak.

“Kami tahu bahwa penelusuran online terkadang dapat mengarah pada hasil yang tidak sesuai, tetapi ini mengkhawatirkan jika anak-anak tersandung pada gambar semi-telanjang bahkan ketika filter kemanan telah diaktifkan,” kata juru bicara NSPCC kepada The Sun.

Seharusnya orangtua dan sekolah layak mendapatkan ketenangan pikiran, bahwa anak-anak mereka aman untuk online. Itulah sebabnya pemerintah perlu membuat peraturan yang ketat dan meminta pertanggungjawaban raksasa teknologi ini.

Lebih buruk lagi, mayoritas perempuan yang ditamlilkan dalam pencarian “hot” berkulit putih, atau sangat berkulit cerah. Akibatnya, Google pernah dituduh menunjukkan hasil gambar “rasis”.

Misalnya, dalam sebuah artikel TIME yang ditulis oleh Marcy tahun ini, yang mengeluhkan bahwa Google hanya menunjukkan gambar orang kulit putih ketika mencari “professor style”. Dan hingga saat ini, sebagian besar masih berlaku.

Baca juga: Google Photos Punya Fitur-fitur Baru dengan AI, Apa Saja?

Pada tahun 2016, Twitter menggunakan komplain tentang Google yang menunjukkan foto dalam hasil pencarian untuk “three black teenagers” atau tiga remaja berkulit hitam, namun gambar yang muncul adalah tiga remaja berkulit putih yang tampak ceria dan sebagian tiga remaja kulit hitam yang tampak seperti terpidana.

Begitu juga ketika kita menelusuri istilah “doctor” atau “lawyer”, maka gambar yang ditampilkan adalah gambar orang kulit putih. [BA/HBS]

Sumber: The Sun

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKAIT

REKOMENDASI
ARTIKEL TEKINI
HARGA DAN SPESIFIKASI