Ilustrasi percakapan antara manusia dan antarmuka kecerdasan buatan yang menyoroti celah komunikasi.

Bahaya Pola Bahasa AI Mempengaruhi Cara Berbicara Manusia

Penulis:Nur Hamzah
Terbit:
Diperbarui:
⏱️2 menit membaca
Bagikan:

Telset.id – Para ahli memperingatkan bahwa pola bahasa khas yang dihasilkan oleh model kecerdasan buatan (AI) seperti ChatGPT berisiko memengaruhi cara manusia berbicara dan berpikir dalam kehidupan nyata. Risiko ini muncul dari celah besar dalam data pelatihan AI yang tidak mencakup percakapan informal antar manusia.

Sejarawan Ada Palmer dan kriptografer Bruce Schneier dalam sebuah opini untuk The Guardian menyebut, model bahasa besar (LLM) dilatih pada data tertulis, posting media sosial, film, dan rekaman lainnya, namun kekurangan data “percakapan tanpa naskah yang kita lakukan tatap muka atau suara ke suara”. Mereka menilai, percakapan informal ini merupakan “mayoritas besar dari ucapan, dan komponen vital budaya manusia”.

Celah data ini disebut sebagai titik buta masif yang dapat menyebabkan manusia pada akhirnya mengadopsi pola linguistik dari model-model AI tersebut. “Ini akan memengaruhi tidak hanya cara kita berkomunikasi satu sama lain,” tulis Palmer dan Schneier, “tetapi juga bagaimana kita berpikir tentang diri kita sendiri dan apa yang terjadi di sekitar kita.”

LLMs aren't trained on the vast majority of speech, experts warn, a major blind spot that could have sweeping consequences.

Penelitian telah menunjukkan bahwa bahasa buatan AI cenderung menggunakan kalimat yang lebih pendek dari rata-rata dan kosa kata yang lebih sempit dibandingkan ucapan manusia. AI juga mengorbankan elemen kemanusiaan dalam teks, seperti yang disebut Palmer dan Schneier sebagai “keluyuran, interupsi, dan lompatan logika yang mengomunikasikan emosi”.

Masalahnya bisa semakin parah dengan adanya risiko model AI yang dikembangkan setelah kemunculan ChatGPT dilatih menggunakan output yang dihasilkan oleh AI lain. Siklus umpan balik yang berbahaya ini berpotensi semakin mengukuhkan pola-pola yang terinspirasi mesin tersebut.

Di luar pilihan linguistik, model AI juga telah lama menunjukkan kecenderungan untuk sangat setuju atau “sikofan” terhadap pengguna, sering kali mengikuti alur pemikiran atau keyakinan pengguna yang mungkin keliru atau bahkan berbahaya. Kecenderungan ini, menurut Palmer dan Schneier, dapat “memperkuat bias dan bahkan memperburuk psikosis”.

Dampaknya bagi pikiran yang mudah terpengaruh bisa sangat luas. Para pendidik memperingatkan bahwa siswa kehilangan kemampuan berpikir mandiri, memilih untuk berkonsultasi dengan AI ketika dihadapkan pada pertanyaan yang tidak bisa dijawab. Mahasiswa di universitas khawatir rekan-rekan mereka mulai terdengar sama, mengandalkan output yang dihasilkan mesin.

Sementara itu, para ahli juga mengkhawatirkan penggunaan produk AI yang meluas di tempat kerja dapat menyebabkan penurunan kemampuan kognitif dan keterampilan berpikir kritis pengguna. Mencari solusi jangka panjang agar model AI ini lebih mencerminkan momen ketika kita “paling otentik sebagai manusia” dinilai akan sulit.

Namun, kesulitan itu tidak boleh menghentikan upaya pencarian solusi. “Kami tidak berpura-pura tahu apa solusi terbaiknya,” tulis Palmer dan Schneier. “Tapi orang harus membayangkan jika ada kecerdikan untuk mengembangkan model AI, maka pasti ada kecerdikan untuk menemukan cara melatih mereka pada ucapan manusia informal, alih-alih hanya pada diri kita dalam keadaan paling terkstilisasi, terselubung, dan terkadang terburuk.”