Telset.id – Bayangkan sebuah mobil otonom tiba-tiba berbelok tanpa alasan jelas dan menabrak. Sensor menunjukkan kamera yang rusak membuat AI salah mengartikan rambu jalan. Tapi apa penyebab sebenarnya? Apakah ini kesalahan teknis atau serangan siber? Inilah tantangan yang dihadapi para peneliti di Georgia Institute of Technology, dan mereka punya solusi revolusioner: AI Psychiatry.
David Oygenblik dan Brendan Saltaformaggio, dua ilmuwan komputer dari Georgia Tech, telah mengembangkan sistem bernama AI Psychiatry (AIP) yang mampu “membangkitkan” otak AI yang gagal untuk memahami apa yang salah. Teknologi ini menjadi penting di era dimana sistem AI semakin tertanam dalam kehidupan sehari-hari, mulai dari drone pengirim obat hingga asisten digital.
“Sistem ini tidak ajaib, dan mereka tidak sempurna – mereka bisa dan memang sering gagal bekerja seperti yang dimaksudkan,” tulis para peneliti dalam artikel mereka di The Conversation. Kegagalan bisa terjadi karena desain teknis yang buruk, data pelatihan yang bias, atau kerentanan dalam kode yang dieksploitasi peretas.
Baca Juga:
Bagaimana AI Psychiatry Bekerja?
Sistem AIP menerapkan serangkaian algoritma forensik untuk mengisolasi data di balik pengambilan keputusan sistem AI. Potongan-potongan ini kemudian disusun kembali menjadi model fungsional yang bekerja identik dengan model aslinya. Investigasi bisa “menghidupkan kembali” AI di lingkungan terkontrol dan mengujinya dengan input berbahaya untuk melihat apakah menunjukkan perilaku tersembunyi.
Teknologi ini mengambil memori image – snapshot dari bit dan byte yang dimuat saat AI beroperasi. Dalam skenario mobil otonom, memori image saat kecelakaan menyimpan petunjuk penting tentang keadaan internal dan proses pengambilan keputusan AI yang mengendalikan kendaraan.
Tim telah menguji AIP pada 30 model AI, 24 di antaranya sengaja diberi “backdoor” untuk menghasilkan hasil yang salah di bawah pemicu tertentu. Sistem berhasil memulihkan, menghosting ulang, dan menguji setiap model, termasuk model yang biasa digunakan dalam skenario dunia nyata seperti pengenalan rambu jalan di kendaraan otonom.
Lebih dari Sekadar Mobil Otonom
Algoritma utama AIP bersifat generik: berfokus pada komponen universal yang harus dimiliki semua model AI untuk membuat keputusan. Ini membuat pendekatan mereka mudah diperluas ke model AI apa pun yang menggunakan kerangka kerja pengembangan AI populer.
“Siapapun yang bekerja untuk menyelidiki kemungkinan kegagalan AI dapat menggunakan sistem kami untuk menilai model tanpa pengetahuan sebelumnya tentang arsitektur pastinya,” jelas para peneliti. Baik itu bot yang membuat rekomendasi produk atau sistem yang memandu armada drone otonom, AIP dapat memulihkan dan menghosting ulang AI untuk dianalisis.
Yang menarik, AIP sepenuhnya open source dan dapat digunakan sebagai alat berharga untuk melakukan audit pada sistem AI sebelum masalah muncul. Dengan lembaga pemerintah mulai dari penegak hukum hingga layanan perlindungan anak mengintegrasikan sistem AI ke dalam alur kerja mereka, audit AI menjadi persyaratan pengawasan yang semakin umum di tingkat negara bagian.
Baca Juga:
Dengan alat seperti AIP, auditor dapat menerapkan metodologi forensik yang konsisten di berbagai platform dan penyebaran AI. Dalam jangka panjang, ini akan memberikan dividen berarti baik untuk pencipta sistem AI maupun semua orang yang terkena dampak tugas yang mereka lakukan.
Di dunia yang semakin bergantung pada AI, kemampuan untuk memahami dan memperbaiki kegagalan sistem ini menjadi semakin kritis. AI Psychiatry mungkin baru permulaan dari era baru dalam forensik digital, di mana kita tidak hanya bisa memahami bagaimana AI bekerja, tetapi juga mengapa mereka terkadang gagal.