Telset.id – Sebuah peringatan keras bagi para akademisi dan profesional yang terlalu bergantung pada kecerdasan buatan. Seorang profesor ilmu tanaman dari University of Cologne, Marcel Bucher, harus menelan pil pahit setelah kehilangan hasil kerja akademisnya selama dua tahun di ChatGPT. Insiden ini terjadi hanya karena ia mencoba mengubah pengaturan privasi data pada akunnya.
Kejadian ini menyoroti risiko fatal dari ketergantungan pada platform cloud tanpa cadangan lokal, sekaligus memicu perdebatan mengenai antarmuka pengguna OpenAI yang dianggap membingungkan oleh sebagian pihak.
Dalam sebuah kolom yang ditulis untuk jurnal ilmiah bergengsi Nature, Bucher menceritakan kronologi bagaimana “arsip digital” miliknya lenyap dalam sekejap. Ia mengaku telah kehilangan dokumen-dokumen krusial yang disusun dengan struktur akademis yang hati-hati, termasuk aplikasi hibah, revisi publikasi ilmiah, materi kuliah, hingga soal-soal ujian.
Bencana ini bermula ketika Bucher memutuskan untuk mematikan opsi “persetujuan data” atau data consent di pengaturan ChatGPT. Tujuannya sederhana: ia ingin menguji apakah ia masih bisa mengakses fungsi-fungsi model AI tersebut tanpa harus menyerahkan datanya kepada OpenAI untuk keperluan pelatihan model.
Namun, realitas berkata lain. Alih-alih mendapatkan privasi lebih, ia justru kehilangan segalanya. “Tidak ada peringatan yang muncul,” tulis Bucher dengan nada kecewa. “Tidak ada opsi undo. Hanya halaman kosong.” Riwayat percakapan yang berisi pekerjaan selama dua tahun itu hilang tanpa jejak seketika setelah fitur tersebut dinonaktifkan.
Kasus ini menjadi ironi tersendiri, mengingat saat ini pakai ChatGPT memang semakin mudah dan terintegrasi dalam alur kerja harian banyak profesional.
Reaksi Keras dan Simpati Publik
Pengakuan jujur Bucher di kolom Nature tersebut segera memancing reaksi beragam di media sosial. Sebagian besar respons bernada schadenfreude—rasa senang di atas penderitaan orang lain. Banyak netizen dan rekan akademisi yang mempertanyakan kompetensi teknis Bucher. Mereka heran bagaimana seorang profesor bisa bekerja selama dua tahun tanpa membuat satu pun cadangan lokal (backup) di komputernya sendiri.
Kritik yang lebih pedas bahkan muncul dari beberapa pihak yang mendesak universitas untuk memecatnya. Mereka berargumen bahwa ketergantungan berlebihan pada AI untuk pekerjaan akademis adalah bentuk kelalaian profesional. Hal ini mengingatkan pada berbagai kasus di mana celah keamanan atau kesalahan sistem AI bisa berakibat fatal.
Meski demikian, tidak sedikit yang menaruh simpati. Roland Gromes, koordinator pengajaran di Heidelberg University, membela Bucher melalui sebuah unggahan di Bluesky. “Salut untuk Marcel Bucher karena berbagi cerita tentang alur kerja yang sangat cacat dan kesalahan bodoh,” tulis Gromes.
“Banyak akademisi percaya mereka bisa melihat jebakan-jebakan AI, tapi kita semua bisa menjadi naif dan mengalami masalah semacam ini!” tambahnya, menekankan bahwa kesalahan manusiawi adalah hal yang wajar terjadi di tengah adopsi teknologi baru.
Baca Juga:
Bucher sendiri menyadari posisi AI yang problematis. Ia adalah orang pertama yang mengakui bahwa ChatGPT dapat menghasilkan pernyataan yang tampak percaya diri namun terkadang salah. Ia menegaskan bahwa dirinya tidak pernah menyamakan keandalan AI dengan akurasi faktual.
Namun, kesalahan fatalnya terletak pada kepercayaan terhadap stabilitas ruang kerja digital tersebut. Ia menggunakan ChatGPT Plus sebagai “asisten setiap hari” dan mengandalkan kontinuitas platform tersebut untuk menyimpan data-data pentingnya.
Polemik AI dalam Dunia Ilmiah
Insiden yang menimpa Bucher hanyalah puncak gunung es dari masalah yang lebih besar mengenai penggunaan AI generatif di dunia sains. Laporan dari The Atlantic baru-baru ini menyoroti bagaimana jurnal ilmiah kini dibanjiri oleh materi “sampah” hasil AI yang bersumber buruk. Proses tinjauan sejawat (peer review) berubah menjadi mimpi buruk karena banyaknya konten berkualitas rendah yang masuk.
Lebih parah lagi, muncul fenomena jurnal ilmiah palsu yang didirikan khusus untuk menampung para peneliti yang mencoba mempublikasikan hasil riset berbasis AI yang meragukan. Situasi ini menciptakan siklus setan di mana materi sampah AI ditinjau oleh model AI lainnya, yang semakin mencemari literatur ilmiah global.
Para ilmuwan juga semakin sering menemukan karya mereka dikutip dalam makalah baru, hanya untuk menyadari bahwa referensi tersebut sepenuhnya merupakan halusinasi AI. Kasus kesalahan informasi ini cukup serius, bahkan pernah ada insiden di mana seseorang dituduh melakukan kejahatan fatal hanya karena orang lain bertanya di ChatGPT.
Penting untuk dicatat bahwa dalam kasus Bucher, tidak ada bukti yang menunjukkan bahwa ia mencoba menjual materi AI mentah kepada mahasiswanya atau mempublikasikan penelitian palsu. Namun, pengalaman pahitnya menjadi peringatan keras tentang volatilitas platform AI.
Tanggapan OpenAI
Dalam tulisannya, Bucher secara terbuka menuduh OpenAI menjual langganan ChatGPT Plus tanpa menjamin langkah-langkah perlindungan dasar. Ia menyayangkan bagaimana pekerjaan bertahun-tahun bisa lenyap dalam sekejap tanpa jaring pengaman.
Merespons tuduhan tersebut, OpenAI memberikan klarifikasi kepada Nature. Perusahaan yang dipimpin Sam Altman tersebut menegaskan bahwa percakapan yang telah dihapus memang “tidak dapat dipulihkan”.
OpenAI juga membantah klaim Bucher yang menyatakan tidak ada peringatan sebelum penghapusan. “Kami menyediakan konfirmasi sebelum pengguna menghapus obrolan secara permanen,” jelas juru bicara OpenAI. Sebagai penutup yang mungkin terdengar normatif namun krusial, perusahaan tersebut menyarankan agar pengguna selalu “memelihara cadangan pribadi untuk pekerjaan profesional.”
Kasus ini menjadi pelajaran mahal bagi siapa saja yang menjadikan platform cloud sebagai satu-satunya tempat penyimpanan data. Secanggih apapun teknologi AI, prinsip dasar manajemen data tetap berlaku: jika data itu penting, buatlah cadangan di tempat yang Anda kendalikan sepenuhnya.

