Ngeri! Studi Ini Temukan Sistem AI yang Bisa Menipu

Telset.id, Jakarta – Para peneliti dari MIT memperingatkan bahwa akan ada AI yang mampu menipu pengguna. Hal ini sebagaimana dilaporkan oleh studi terbaru dari Pattern, yang menunjukan sistem AI yang bisa menipu.

Teknologi AI hingga saat ini terus berkembang, dan bahkan perkembangannya bisa dibilang lebih cepat dibanding yang diperkirakan. Kini, penerapan AI bahkan sudah marak di berbagai industri di dunia.

Saat ini, telah ditemukan bahwa sistem AI yang dirancang untuk memberikan informasi jujur telah belajar untuk menipu para manusia yang menggunakan sistem kecerdasan buatan ini.

BACA JUGA:

Tim penelitian yang dipimlin oleh Peter Park menemukan bahwa sistem AI mampu melakukan hal-hal yang memanipulasi para gamer game online. Mereka bahkan melewati Captcha yang memverifikasi bahwa pengguna adalah manusia bukan robot.

Park memperingatkan bahwa contoh-contoh menipu dari sistem AI ini memang terlihat sepele, namun perlu dicatat bahwa hal sepele ini bisa menimbulkan dampak yang cenderung buruk di kehidupan sehari-hari. Saat ini perilaku AI mungkin masih bisa diprediksi dalam pelatihannya, namun ada kemungkinan ini tidak dapat dikendalikan saat model AI sudah diterapkan.

Sebagaimana dikutip Telset dari Gizmochina, penelitian ini menyoroti sistem AI Meta yang bernama Cicero. Sistem ini pada awalnya dibentuk sebagai lawan yang adil dalam permainan diplomasi virtual.

Menurut Park, Cicero diprogram untuk bisa bersikap jujur dan membantu, namun sistem ini malah menjadi ahli penipu. Sebagai gambaran, dalam oermainan Cicero berperan sebagai Prancis dan diam diam akan bekerja sama dengan Jerman, untuk mengkhianati  pemain lain yang berperan sebagai Inggris.

Kenapa Cicero disebut sebagai pengkhiana? Karena awalnya Cicero berjanji untuk melindungi Inggris, namun sistem memberitahu Jerman untuk tetap melakukan invasi.

Di sisi lain ada juga perilaku yang dilakukan oleh GPT-4 yang secara keliru mengklaim sebagai penyandang tunanetra dan membuat manusia untuk melewati kode Captcha untuk dirinya.

Sementara itu, Park menekankan adanya tantangan yang serius untuk melatih AI yang jujur. AI bekerja tidak seperti software tradisional yang berkembang melalui proses pembiakan selektif. Perilaku AI ini mungkin bisa diprediksi dalam pelatihan, namun ada kemungkinan tidak bisa dikendalikan di masa yang akan datang.

BACA JUGA:

Penelitian ini juga menandakan bahwa sistem AI yang menipu sebagai sistem yang memiliki risiko tinggi dan memerlukan lebih banyak waktu untuk bersiap menghadapi penipuan yang dilakukan oleh sistem AI.

Hal ini memang mengkhawatirkan, tetapi dengan banyak penelitian tentang hal ini kita bisa mengetahui dan membedakan AI yang menipu. [FY/IF]

1 KOMENTAR

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKAIT

REKOMENDASI
ARTIKEL TEKINI
HARGA DAN SPESIFIKASI