Google AI Sebut N-Word di Notifikasi Berita, Kok Bisa?

REKOMENDASI
ARTIKEL TERKAIT

Bayangkan ini: ponsel Anda bergetar, notifikasi berita dari Google muncul. Anda membacanya, dan di sana, terselip kata yang paling ofensif, kata yang penuh sejarah kelam rasial—N-word. Bukan dalam konteks kutipan atau laporan, tapi muncul begitu saja di bawah tautan berita. Itulah yang dialami oleh beberapa pengguna, memicu gelombang kejutan dan kemarahan di tengah perayaan Bulan Sejarah Kulit Hitam. Insiden ini bukan sekadar bug teknis biasa; ini adalah potret nyata dari kegagalan sistem kecerdasan buatan yang paling canggih sekalipun dalam memahami kompleksitas manusia, etika, dan sejarah.

Laporan dari Deadline mengungkap bahwa Google mengirimkan notifikasi berita yang dihasilkan AI yang mengandung kata-N. Notifikasi tersebut menampilkan tautan ke artikel The Hollywood Reporter mengenai sebuah insiden di ajang BAFTA Film Awards baru-baru ini. Namun, di bawah tautan itu, algoritma Google secara keliru menempatkan kata yang sangat rasis tersebut. Bocoran ini pertama kali diunggah ke Instagram oleh pengguna Danny Price, yang menyertakan tangkapan layar dengan keterangan pedas: “what an interesting Black History Month this has turned out to be.” Komentar itu menyiratkan ironi yang pahit: di bulan yang didedikasikan untuk menghormati pencapaian dan perjuangan komunitas kulit hitam, teknologi justru mengulangi luka lama.

Insiden ini segera memicu reaksi cepat dari Google. Perusahaan raksasa teknologi itu telah meminta maaf dan menyatakan telah “menghapus notifikasi ofensif tersebut” serta “bekerja untuk mencegah hal ini terjadi lagi.” Namun, permintaan maaf itu hanyalah permulaan dari sebuah diskusi yang jauh lebih dalam. Bagaimana bisa sistem AI, yang seharusnya netral dan cerdas, melakukan kesalahan yang begitu mendasar dan menyakitkan? Apa yang sebenarnya terjadi di balik layar algoritma yang mengatur informasi yang kita terima setiap hari? Mari kita selidiki lebih dalam.

Kesalahan AI yang Memalukan dan Pola yang Mengkhawatirkan

Ini bukan pertama kalinya AI membuat kesalahan memalukan dalam penyampaian berita. Referensi dari artikel sumber mengungkapkan bahwa Apple bahkan memutuskan untuk menghentikan notifikasi push berbasis AI mereka tahun lalu setelah alat tersebut membuat serangkaian kesalahan yang memalukan. Salah satu contohnya adalah ketika AI Apple secara keliru memberitakan bahwa Luigi Mangione, pria yang dituduh membunuh CEO UnitedHealthcare Brian Thompson, telah menembak dirinya sendiri. Kesalahan-kesalahan semacam ini menunjukkan sebuah pola: AI, dalam upayanya untuk meringkas, menarik perhatian, atau menggenerasi konten dengan cepat, sering kali kehilangan konteks, akurasi, dan—yang paling krusial—sensitivitas.

Dalam kasus Google kali ini, mekanismenya diduga kuat terkait dengan cara AI meringkas atau mengekstrak informasi dari artikel sumber. Artikel The Hollywood Reporter yang dirujuk membahas insiden di panggung BAFTA, di mana seorang anggota audiens dengan sindrom Tourette secara tidak sengaja meneriakkan kata-N saat Michael B. Jordan dan Delroy Lindo naik panggung. Kemungkinan besar, algoritma Google yang memindai atau meringkas teks tersebut gagal memahami bahwa kata itu muncul dalam konteks laporan tentang sebuah insiden yang melibatkan tic vokal (gerakan atau ucapan involunter), bukan sebagai bagian dari narasi berita itu sendiri. AI melihat kata kunci, tetapi buta terhadap nuansa.

Lebih Dari Sekadar Bug: Tabrakan Teknologi dan Realitas Sosial

Insiden ini dengan jelas mempertemukan dua dunia: dunia teknologi yang dingin, deterministik, dan berbasis data, dengan dunia sosial manusia yang hangat, kompleks, dan penuh sejarah yang sarat beban. Bagi mesin, kata-kata mungkin hanyalah kumpulan data dan pola statistik. Namun, bagi manusia—khususnya komunitas kulit hitam—kata-N bukan sekadar huruf. Ia adalah simbol dari berabad-abad penindasan, perbudakan, dan dehumanisasi. Melewatkannya begitu saja sebagai “kesalahan pemrosesan bahasa” adalah bentuk pengabaian yang berbahaya.

Insiden di BAFTA itu sendiri sudah menjadi bahan diskusi yang pelik. John Davidson, aktivis sindrom Tourette yang membuat komentar tersebut, menyatakan dirinya “sangat malu jika ada yang menganggap tic involunter saya sebagai sesuatu yang disengaja atau memiliki makna.” Situasi ini menempatkan dua narasi yang sama-sama valid dalam posisi yang sulit: perjuangan hidup dengan kondisi neurologis versus pengalaman traumatis mendengar kata rasis di ruang publik. Seperti yang disorot oleh jurnalis Jemele Hill dalam cuitannya, seringkali ekspektasi yang tidak adil jatuh pada korban: meminta pengertian lebih untuk orang yang meneriakkan hinaan rasial, alih-alih untuk Michael B. Jordan dan Delroy Lindo yang harus bertahan menghadapi rasa malu di depan rekan-rekan mereka.

Lalu, kehadiran AI dalam menyebarkan kembali insiden ini—dengan cara yang keliru—hanya memperkeruh suasana. Alih-alih menjadi alat yang netral, AI justru menjadi amplifier yang memperbesar kebisingan dan rasa sakit, tanpa memberikan pemahaman atau resolusi.

Pertanggungjawaban dan Jalan ke Depan untuk AI Konten

Permintaan maaf Google adalah langkah yang diperlukan, tetapi jelas tidak cukup. Pertanyaan besarnya adalah: apa yang akan dilakukan untuk “mencegah hal ini terjadi lagi”? Apakah hanya dengan menambahkan filter kata-kata kasar yang lebih ketat? Solusi semacam itu terlalu simplistis. Kata-N mungkin muncul dalam konteks akademis, historis, atau dalam laporan seperti kasus BAFTA ini. Melarangnya sama sekali justru bisa menghapus konteks penting.

Yang dibutuhkan adalah pendekatan yang lebih canggih. Sistem AI perlu dilatih tidak hanya pada bahasa, tetapi juga pada etika, konteks sosial, dan sejarah. Mereka perlu memahami perbedaan antara mengutip sebuah insiden dan mengucapkan sebuah hinaan. Mereka perlu memiliki “kesadaran kontekstual” yang memadai. Ini memerlukan investasi besar dalam diversifikasi tim pengembang, melibatkan pakar etika, sejarawan, dan sosiolog dalam proses pelatihan model, serta menerapkan lapisan peninjauan manusia (human-in-the-loop) yang kuat untuk konten-konten sensitif, terutama yang menyangkut isu ras, gender, dan trauma.

Sebagai pengguna, insiden ini juga menjadi pengingat untuk kita semua. Dalam era di mana informasi datang dengan cepat dan seringkali disaring oleh algoritma, kita harus tetap kritis. Notifikasi berita bukanlah kebenaran mutlak. Mereka adalah hasil dari proses algoritmik yang bisa cacat. Verifikasi silang dan membaca berita secara utuh, bukan hanya dari headline atau notifikasi, menjadi keterampilan yang semakin vital.

Kesalahan Google ini adalah alarm yang nyaring. Ia menunjukkan bahwa perjalanan kita menuju integrasi AI yang mulus dan bertanggung jawab masih sangat panjang dan penuh ranjau. Teknologi telah sampai pada titik di mana ia dapat meniru kecerdasan manusia, tetapi untuk memahami hati nurani dan kebijaksanaan manusia? Tampaknya kita masih harus menunggu sangat lama. Sampai saat itu tiba, tanggung jawab terbesar tetap berada di pundak para pembuatnya—untuk memastikan bahwa mesin yang mereka ciptakan tidak mengulangi kesalahan terkelam dalam sejarah manusia, apalagi memperburuknya.

TINGGALKAN KOMENTAR
Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI