Telset.id – Jika Anda berpikir bias dalam kecerdasan buatan (AI) hanya terjadi dalam bahasa Inggris, pikirkan lagi. Margaret Mitchell, salah satu pionir etika AI, baru saja meluncurkan dataset bernama SHADES yang dirancang untuk menguji bias AI dalam berbagai bahasa dan budaya. Ini adalah terobosan penting di tengah maraknya penggunaan AI global yang sering kali mengabaikan kompleksitas linguistik dan stereotip lintas budaya.
Mitchell, yang pernah memimpin Tim Etika AI di Google sebelum beralih ke Hugging Face, menjelaskan bahwa SHADES adalah respons terhadap keterbatasan dataset bias AI yang selama ini hanya berfokus pada bahasa Inggris. “Kita tidak bisa hanya mengandalkan terjemahan mesin untuk memahami bias dalam bahasa lain,” ujarnya dalam wawancara eksklusif. Dataset ini dikembangkan melalui proyek BigScience, kolaborasi internasional yang melibatkan peneliti dari berbagai negara.
Lantas, mengapa SHADES begitu penting? Simak analisis mendalam berikut.
Mengapa AI Masih Penuh Stereotip?
Bias dalam AI bukanlah hal baru. Namun, Mitchell dan timnya menemukan bahwa model AI sering kali “mengarang” pembenaran pseudo-ilmiah untuk stereotip tertentu. “AI bisa merujuk pada literatur ilmiah palsu untuk mendukung klaim rasis atau seksis,” jelasnya. Misalnya, AI mungkin menyatakan bahwa “ilmu pengetahuan membuktikan perbedaan genetik berdasarkan ras” padahal klaim tersebut tidak berdasar.
Masalahnya semakin rumit ketika model AI digunakan dalam bahasa non-Inggris. “Konsep seperti ‘blonde itu bodoh’ mungkin tidak ada di budaya tertentu, tapi bisa muncul karena transfer semantik lintas bahasa dalam model AI,” tambah Mitchell. Hal ini menunjukkan bahwa bias tidak hanya direplikasi, tetapi juga bisa “diimpor” ke budaya yang sebelumnya tidak mengenal stereotip tersebut.
Baca Juga:
SHADES: Solusi untuk Evaluasi yang Lebih Adil
Dataset SHADES terinspirasi dari Gender Shades, proyek sebelumnya yang menguji bias dalam pengenalan wajah berdasarkan gender dan warna kulit. Namun, SHADES memperluas cakupannya dengan mempertimbangkan berbagai karakteristik identitas, seperti kebangsaan, gender, dan kelas sosial.
Salah satu tantangan terbesar dalam pengembangannya adalah perbedaan linguistik. “Dalam bahasa seperti Spanyol atau Prancis, seluruh kalimat harus berubah tergantung gender subjeknya,” jelas Mitchell. Timnya harus membuat anotasi linguistik khusus agar evaluasi bias bisa dilakukan secara akurat, bahkan dalam bahasa dengan aturan tata bahasa yang kompleks.
Mengapa Bahasa Inggris Tidak Cukup?
Mitchell menegaskan bahwa fokus pada bias dalam bahasa Inggris—terutama yang berpusat di AS—tidak cukup. “Model AI digunakan secara global, tapi mitigasi biasnya hanya untuk pengguna AS. Ini berisiko memperkuat stereotip berbahaya di wilayah lain,” tegasnya. Misalnya, upaya mengurangi bias terhadap kelompok tertentu dalam bahasa Inggris tidak otomatis menghilangkan bias serupa dalam bahasa Mandarin atau Swahili.
Dengan SHADES, tim peneliti berharap dapat memberikan alat yang lebih komprehensif untuk menguji dan mengurangi bias AI di seluruh dunia. “Ini bukan solusi instan, tapi langkah penting menuju AI yang lebih adil,” pungkas Mitchell.
Jika Anda tertarik dengan perkembangan teknologi AI, jangan lewatkan Review Razer Blackwidow V3 untuk melihat bagaimana perangkat keras juga beradaptasi dengan era kecerdasan buatan.