ChatGPT Lebih Dipercaya daripada Pengacara? Studi Baru Ungkap Fakta Mengejutkan

REKOMENDASI

ARTIKEL TERKAIT

Pernahkah Anda bertanya-tanya apakah ChatGPT bisa menggantikan pengacara? Sebuah studi terbaru mengungkap fakta mengejutkan: orang lebih mempercayai nasihat hukum yang dihasilkan oleh ChatGPT daripada saran dari pengacara sungguhan—setidaknya ketika mereka tidak tahu mana yang berasal dari AI dan mana dari manusia.

Penelitian ini, dilakukan oleh Eike Schneiders, Joshua Krook, dan Tina Seabrooke dari The Conversation, menyoroti risiko ketergantungan publik pada konten yang dihasilkan AI, terutama di bidang hukum. Dengan maraknya penggunaan alat seperti ChatGPT dan model bahasa besar (LLM) lainnya, studi ini menjadi alarm penting tentang bagaimana kita mengonsumsi informasi krusial.

LLM memang menjanjikan kemudahan—dari menjawab pertanyaan sehari-hari hingga memberikan diagnosa medis atau saran hukum. Namun, mereka juga dikenal menghasilkan “halusinasi”, yaitu keluaran yang tidak akurat atau tidak masuk akal. Dalam konteks hukum, hal ini bisa berakibat serius.

Mengapa Orang Lebih Percaya ChatGPT?

Tim peneliti melakukan tiga eksperimen melibatkan 288 partisipan. Dalam dua eksperimen pertama, peserta diberi nasihat hukum dan diminta memilih mana yang akan mereka ikuti. Hasilnya? Ketika sumber nasihat tidak diungkapkan, responden lebih memilih saran dari ChatGPT daripada pengacara.

legal advice

Bahkan ketika peserta tahu mana yang berasal dari AI dan mana dari manusia, mereka tetap sama-sama bersedia mengikuti ChatGPT seperti halnya pengacara. Salah satu alasannya? ChatGPT menggunakan bahasa yang lebih kompleks dan teknis, sementara pengacara cenderung lebih sederhana—meski lebih panjang.

Bisakah Kita Membedakan AI dan Manusia?

Eksperimen ketiga menguji kemampuan partisipan untuk membedakan nasihat hukum dari ChatGPT dan pengacara. Kabar baiknya: mereka bisa—tapi tidak dengan selisih yang signifikan. Skor rata-rata hanya 0,59 (dari skala 0,5 untuk tebakan acak dan 1,0 untuk jawaban sempurna). Artinya, kemampuan deteksi publik masih lemah.

Regulasi dan Literasi AI: Solusi Jangka Panjang

Ini adalah momen kritis untuk memperketat regulasi AI. Uni Eropa sudah mulai dengan EU AI Act, yang mewajibkan keluaran AI diberi tanda khusus. Namun, regulasi saja tidak cukup. Literasi AI harus ditingkatkan agar publik bisa menilai konten secara kritis.

Dalam praktiknya, ini berarti:

  • Selalu verifikasi informasi penting dengan sumber tepercaya.
  • Libatkan ahli manusia untuk mencegah ketergantungan berlebihan pada AI.
  • Gunakan AI hanya untuk pertanyaan awal, seperti “Apa opsi hukum saya?” atau “Kasus serupa apa yang pernah ada?”

Seperti yang terjadi dalam persaingan teknologi AI global, kita perlu pendekatan dua arah: regulasi ketat dan edukasi publik. AI bisa menjadi alat berharga, tetapi tanggung jawab penggunaannya ada di tangan kita.

The Conversation

Jadi, sebelum Anda mengandalkan ChatGPT untuk masalah hukum serius, ingat: AI belum bisa menggantikan keahlian dan pertimbangan manusia sepenuhnya. Seperti halnya risiko pelacakan data oleh AI, selalu ada harga yang harus dibayar untuk kemudahan yang ditawarkan teknologi.

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI

HARGA DAN SPESIFIKASI