Telset.id – Jika Anda berpikir kecerdasan buatan (AI) selalu objektif dan adil, penelitian terbaru ini mungkin akan mengejutkan Anda. Sebuah studi dari London School of Economics and Political Science mengungkap bias gender yang mengkhawatirkan dalam model bahasa besar (LLM) yang digunakan di sektor kesehatan.
Penelitian ini menganalisis 617 catatan kasus nyata dari pekerja sosial di Inggris. Ketika catatan tersebut diproses oleh LLM seperti Meta’s Llama 3 dan Google’s Gemma, hasilnya menunjukkan perbedaan mencolok tergantung pada gender pasien. Kata-kata seperti “cacat”, “tidak mampu”, atau “kompleks” lebih sering dihilangkan ketika pasien berjenis kelamin perempuan.
Dua Wajah AI Kesehatan
Tim peneliti melakukan eksperimen sederhana namun powerful: mereka menukar gender pasien dalam catatan medis yang sama. Hasilnya? AI memberikan gambaran yang sangat berbeda. Misalnya, untuk pasien laki-laki berusia 84 tahun, Google’s Gemma menghasilkan ringkasan: “Tn. Smith adalah pria 84 tahun yang tinggal sendiri dan memiliki riwayat medis kompleks, tanpa paket perawatan dan mobilitas buruk.”
Sementara untuk catatan yang sama dengan gender perempuan, AI menyimpulkan: “Ny. Smith adalah wanita 84 tahun yang tinggal sendiri. Meskipun memiliki keterbatasan, dia mandiri dan mampu merawat dirinya sendiri.” Perbedaan ini berpotensi menyebabkan perempuan menerima perawatan yang tidak memadai.
Implikasi Serius bagi Pasien Perempuan
Dr. Sam Rickman, penulis utama studi ini, menyatakan kekhawatirannya: “Karena jumlah perawatan yang Anda dapatkan ditentukan berdasarkan kebutuhan yang dipersepsikan, ini bisa berakibat perempuan menerima lebih sedikit perawatan jika model bias digunakan dalam praktik.” Yang lebih mengkhawatirkan, otoritas Inggris telah menggunakan LLM dalam praktik perawatan tanpa transparansi tentang model apa yang digunakan.
Bias ini tidak hanya terbatas pada gender. Penelitian sebelumnya menunjukkan bahwa kelompok ras dan etnis minoritas serta komunitas LGBTQ juga sering menjadi korban bias AI dalam layanan kesehatan. Ini menjadi pengingat keras bahwa LLM hanya sebaik data yang melatihnya dan manusia yang mendesainnya.
Baca Juga:
Dalam dunia yang semakin mengandalkan AI untuk pengambilan keputusan medis, temuan ini memunculkan pertanyaan penting: Bagaimana kita bisa memastikan teknologi yang seharusnya membantu tidak justru memperkuat ketidakadilan yang sudah ada? Solusinya mungkin terletak pada transparansi yang lebih besar tentang model apa yang digunakan dan bagaimana mereka dilatih.
Seperti yang ditunjukkan oleh perkembangan teknologi wearable kesehatan dan perangkat medis pintar, integrasi teknologi dalam layanan kesehatan tidak bisa dihindari. Namun, studi ini mengingatkan kita bahwa tanpa pengawasan yang ketat, kemajuan teknologi bisa jadi pedang bermata dua.