Telset.id, Jakarta – Para peneliti dari MIT memperingatkan bahwa akan ada AI yang mampu menipu pengguna. Hal ini sebagaimana dilaporkan oleh studi terbaru dari Pattern, yang menunjukan sistem AI yang bisa menipu.
Teknologi AI hingga saat ini terus berkembang, dan bahkan perkembangannya bisa dibilang lebih cepat dibanding yang diperkirakan. Kini, penerapan AI bahkan sudah marak di berbagai industri di dunia.
Saat ini, telah ditemukan bahwa sistem AI yang dirancang untuk memberikan informasi jujur telah belajar untuk menipu para manusia yang menggunakan sistem kecerdasan buatan ini.
BACA JUGA:
- Bos OpenAI Akui AI yang Canggih Bisa Jadi Ancaman
- Ternyata! Google, Meta, dan OpenAI Latih AI dengan Video YouTube
Tim penelitian yang dipimlin oleh Peter Park menemukan bahwa sistem AI mampu melakukan hal-hal yang memanipulasi para gamer game online. Mereka bahkan melewati Captcha yang memverifikasi bahwa pengguna adalah manusia bukan robot.
Park memperingatkan bahwa contoh-contoh menipu dari sistem AI ini memang terlihat sepele, namun perlu dicatat bahwa hal sepele ini bisa menimbulkan dampak yang cenderung buruk di kehidupan sehari-hari. Saat ini perilaku AI mungkin masih bisa diprediksi dalam pelatihannya, namun ada kemungkinan ini tidak dapat dikendalikan saat model AI sudah diterapkan.
Sebagaimana dikutip Telset dari Gizmochina, penelitian ini menyoroti sistem AI Meta yang bernama Cicero. Sistem ini pada awalnya dibentuk sebagai lawan yang adil dalam permainan diplomasi virtual.
Menurut Park, Cicero diprogram untuk bisa bersikap jujur dan membantu, namun sistem ini malah menjadi ahli penipu. Sebagai gambaran, dalam oermainan Cicero berperan sebagai Prancis dan diam diam akan bekerja sama dengan Jerman, untuk mengkhianati pemain lain yang berperan sebagai Inggris.
Kenapa Cicero disebut sebagai pengkhiana? Karena awalnya Cicero berjanji untuk melindungi Inggris, namun sistem memberitahu Jerman untuk tetap melakukan invasi.
Di sisi lain ada juga perilaku yang dilakukan oleh GPT-4 yang secara keliru mengklaim sebagai penyandang tunanetra dan membuat manusia untuk melewati kode Captcha untuk dirinya.
Sementara itu, Park menekankan adanya tantangan yang serius untuk melatih AI yang jujur. AI bekerja tidak seperti software tradisional yang berkembang melalui proses pembiakan selektif. Perilaku AI ini mungkin bisa diprediksi dalam pelatihan, namun ada kemungkinan tidak bisa dikendalikan di masa yang akan datang.
BACA JUGA:
- OpenAI dan Upaya Membuat Chip AI Sendiri: Risiko dan Peluang
- Google Manfaatkan AI untuk Prediksi Banjir 7 Hari Sebelumnya
Penelitian ini juga menandakan bahwa sistem AI yang menipu sebagai sistem yang memiliki risiko tinggi dan memerlukan lebih banyak waktu untuk bersiap menghadapi penipuan yang dilakukan oleh sistem AI.
Hal ini memang mengkhawatirkan, tetapi dengan banyak penelitian tentang hal ini kita bisa mengetahui dan membedakan AI yang menipu. [FY/IF]