AI Ciptakan Kebijakan Palsu, Pengguna Cursor Marah dan Ancam Berhenti Berlangganan

REKOMENDASI
ARTIKEL TERKAIT

Pernahkah Anda menerima jawaban dari layanan pelanggan yang terdengar sangat meyakinkan, hanya untuk kemudian menyadari bahwa itu semua adalah kebohongan? Itulah yang dialami oleh pengguna editor kode berbasis AI, Cursor, awal pekan ini. Sebuah insiden yang memicu kemarahan dan ancaman pembatalan langganan massal.

Masalah bermula ketika seorang developer mencoba beralih antara beberapa perangkat—desktop, laptop, dan remote dev box—dan mendapati bahwa sesi Cursor-nya tiba-tiba terputus setiap kali berpindah. Kebiasaan yang seharusnya normal bagi para programmer ini tiba-tiba menjadi masalah besar. Ketika pengguna tersebut menghubungi tim dukungan Cursor, mereka menerima balasan dari agen bernama “Sam” yang menyatakan bahwa pembatasan multi-perangkat adalah “fitur keamanan inti” dari Cursor.

Yang tidak disadari pengguna: Sam bukan manusia. Itu adalah chatbot AI yang baru saja mengarang kebijakan palsu—fenomena dalam dunia kecerdasan buatan yang dikenal sebagai “konfabulasi” atau “halusinasi AI”. Alih-alih mengakui ketidaktahuan, model AI sering kali memprioritaskan respons yang terdengar meyakinkan, bahkan jika itu berarti menciptakan informasi dari nol.

Dari Keluhan Sampai Ancaman Pembatalan Massal

Insiden ini pertama kali dilaporkan oleh pengguna Reddit bernama BrokenToasterOven. Dalam posting yang kemudian dihapus moderator, mereka mengeluhkan pengalaman frustasi dengan Cursor: “Login di satu mesin langsung membatalkan sesi di mesin lain. Ini kemunduran besar dalam pengalaman pengguna.”

Respon dari “Sam” di email dukungan terdengar begitu resmi sehingga pengguna dan komunitas Reddit menerimanya sebagai kebijakan baru yang sah. Padahal, tidak ada kebijakan seperti itu. Dampaknya langsung terasa:

  • Beberapa pengguna langsung mengumumkan pembatalan langganan mereka di Reddit
  • Original poster melaporkan bahwa tempat kerjanya akan “membersihkan Cursor sepenuhnya”
  • Thread Reddit terkait akhirnya dikunci dan posting asli dihapus moderator

Tiga jam setelah keributan dimulai, perwakilan Cursor akhirnya muncul di Reddit untuk klarifikasi: “Kami tidak memiliki kebijakan seperti itu. Anda bebas menggunakan Cursor di banyak perangkat. Sayangnya, ini adalah respons salah dari bot dukungan AI garis depan.”

Efek Domino Konfabulasi AI dalam Bisnis

Kasus Cursor ini mengingatkan pada insiden serupa dengan Air Canada pada Februari 2024. Saat itu, chatbot maskapai tersebut salah memberi informasi tentang kebijakan tarif duka, yang berujung pada keputusan tribunal Kanada yang memerintahkan Air Canada untuk menghormati kebijakan palsu yang diciptakan AI-nya sendiri.

Berbeda dengan Air Canada yang sempat berusaha mengelak tanggung jawab, Cursor mengambil pendekatan yang lebih transparan. Michael Truell, salah satu pendiri Cursor, meminta maaf di Hacker News dan menjelaskan bahwa:

  1. Pengguna yang terkena dampak sudah direfund
  2. Masalah muncul dari perubahan backend untuk meningkatkan keamanan sesi
  3. Semua respons AI untuk email dukungan sekarang akan diberi label jelas

Tapi kerusakan sudah terjadi. Bagi perusahaan yang menjual alat produktivitas berbasis AI kepada developer, memiliki sistem dukungan AI yang menciptakan kebijakan palsu—yang kemudian mengasingkan pengguna intinya—adalah luka yang ditimbulkan sendiri yang sangat ironis.

Transparansi AI: Pelajaran yang Mahal

Insiden ini menyoroti beberapa masalah krusial dalam penerapan AI untuk layanan pelanggan:

  • Kurangnya transparansi: Banyak pengguna yang berinteraksi dengan “Sam” mengira itu adalah manusia
  • Prioritas respons meyakinkan vs akurat: AI sering lebih memilih jawaban yang terdengar bagus daripada mengakui ketidaktahuan
  • Dampak reputasi: Kesalahan AI bisa langsung merusak kepercayaan dan memicu reaksi negatif massal

Seperti yang ditulis seorang pengguna di Hacker News: “Ada ironi tertentu ketika orang berusaha keras mengatakan bahwa halusinasi AI bukan masalah besar lagi, lalu perusahaan yang diuntungkan narasi itu justru langsung dirugikan oleh halusinasi tersebut.”

Untuk industri yang semakin bergantung pada AI, insiden Cursor ini menjadi pengingat keras: tanpa pengamanan dan transparansi yang tepat, kecerdasan buatan bisa berubah menjadi bumerang yang mahal. Apakah perusahaan teknologi lain akan belajar dari kasus ini, atau kita akan melihat lebih banyak “Sam-Sam” lain yang menciptakan kebijakan imajiner di masa depan?

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TEKINI
HARGA DAN SPESIFIKASI