Telset.id, Jakarta – Peneliti China telah menemukan celah keamanan yang signifikan dalam model bahasa besar multimodal komersial (MLLM) yang banyak digunakan chatbot AI seperti ChatGPT, Bard, dan Bing Chat.
Model-model ini, yang digunakan oleh raksasa teknologi seperti Google, Microsoft, dan Baidu, adalah komponen mendasar dari berbagai aplikasi, mulai dari asisten virtual hingga sistem moderasi konten.
Para peneliti menemukan bahwa kerentanan dalam MLLM ini dapat dieksploitasi menggunakan gambar yang dimanipulasi yang sangat mirip dengan aslinya. Dengan membuat perubahan kecil yang hampir tidak terlihat oleh mata manusia, peneliti melewati filter bawaan model yang dirancang untuk menyingkirkan konten tidak pantas.
Misalnya, salah satu peneliti di Beijing China telah mengidentifikasi kerentanan keamanan yang signifikan dalam model AI seperti ChatGPT. Di bawah serangan, model-model ini dapat salah mengira panda raksasa sebagai manusia atau gagal mendeteksi konten berbahaya, menyoroti kelemahan keamanan kritis dalam sistem AI komersial.
BACA JUGA:
- OpenAI Luncurkan ChatGPT Enterprise untuk Pengguna Korporasi
- OpenAI Umumkan GPT-4 Turbo, Diklaim Model LLM Paling Kuat!
Di antara model yang terpengaruh, Bard, dilengkapi dengan mekanisme deteksi wajah dan toksisitas, dapat menghasilkan deskripsi konten berbahaya yang tidak pantas ketika disusupi.
Tim peneliti China lainnya bahkan memberikan kode yang dapat menyesatkan model AI. Eksperimen mereka menghasilkan tingkat keberhasilan 22% saat melawan Bard, 26% melawan Bing Chat, dan keberhasilannya 86% untuk Ernie Bot.
Dikutip Telset dari Gizmochina pada Minggu (12/11/2023), Wakil Menteri Sains dan Teknologi China Wu Zhaohui, membahas temuan yang mengkhawatirkan ini di Global AI Security Summit di Inggris beberapa waktu lalu.
Dirinya menekankan kebutuhan mendesak untuk kontrol risiko teknis yang lebih kuat dalam tata kelola AI, mendesak komunitas global untuk mengatasi kerentanan yang ditemukan dalam model bahasa yang banyak digunakan ini.
Salah satu tantangan utama yang disorot oleh penelitian ini adalah ketidakseimbangan yang ada antara upaya yang berfokus pada menyerang dan mempertahankan model AI. Sementara serangan musuh telah mengumpulkan perhatian yang signifikan, masih ada kekurangan strategi pertahanan yang kuat.
Metode pertahanan tradisional mungkin mengorbankan akurasi dan sumber daya komputasi, sehingga sangat penting untuk mengeksplorasi solusi inovatif. Untuk mengatasi kerentanan ini, para peneliti menyarankan pertahanan berbasis preprocessing sebagai solusi potensial, terutama untuk model pondasi skala besar.
BACA JUGA:
- Google Assistant Resmi Terintegrasi dengan Bard Bertenaga AI
- Google Bard Kini Terhubung ke Gmail, Maps Hingga YouTube
Pertahanan ini bertujuan untuk memastikan ketahanan MLLM terhadap serangan musuh, membuka jalan bagi penelitian dan pengembangan masa depan dalam keamanan AI. Penemuan ini menggarisbawahi pentingnya meningkatkan infrastruktur keamanan teknologi AI.
Karena model-model ini menjadi semakin terintegrasi ke dalam aplikasi sehari-hari, penting untuk memperkuat pertahanan mereka terhadap eksploitasi berbahaya, memastikan lanskap digital yang lebih aman dan terjamin bagi pengguna di seluruh dunia. [NM/IF]