Telset.id – Bayangkan Anda menggunakan alat coding AI terbaru yang diklaim sebagai buatan perusahaan Silicon Valley, namun ternyata dibangun di atas teknologi China. Itulah kontroversi yang sedang mengguncang dunia artificial intelligence saat ini, di mana dua startup AS dituding menggunakan model open-source China sebagai fondasi produk mereka.
Spekulasi ini bukan sekadar rumor belaka. Bukti-bukti mulai bermunculan, mulai dari performa yang mirip hingga jejak bahasa Mandarin dalam output sistem. Yang lebih menarik, perusahaan China di balik model tersebut justru melihat ini sebagai perkembangan positif untuk ekosistem AI global. Lantas, apa sebenarnya yang terjadi di balik layar?
Dunia AI coding sedang mengalami revolusi besar-besaran. Tools seperti Google AI Studio Terbaru memungkinkan developer membuat aplikasi AI hanya dengan prompt sederhana. Namun, di balik kemudahan ini tersembunyi kompleksitas etika yang mulai mengemuka.
Kecurigaan Terhadap Dua Startup AS
Cognition AI, startup San Francisco yang bernilai fantastis $10,2 miliar, baru saja meluncurkan model SWE-1.5 yang disebut-sebut memiliki performa coding mendekati state-of-the-art dengan kecepatan generasi rekor. Yang membuat komunitas AI penasaran: perusahaan mengakui model ini dibangun “di atas model dasar open-source terkemuka” tetapi menolak menyebutkan secara spesifik model mana.
Spekulasi pun bergulir. Banyak yang menduga SWE-1.5 menggunakan GLM-4.6 dari Zhipu AI sebagai fondasinya. Model flagship China ini dirilis dengan lisensi MIT yang sangat permisif, memungkinkan siapa saja menggunakannya secara komersial tanpa harus memberikan atribusi. Zhipu AI sendiri memberikan sinyal bahwa dugaan ini mungkin benar, meskipun Cognition AI memilih bungkam.
Bukan hanya Cognition AI yang menghadapi pertanyaan serupa. Startup San Francisco lainnya, Cursor dengan valuasi $9,9 miliar, menghadapi nasib serupa dengan asisten coding Composer-nya. Pengguna melaporkan menemukan jejak pemikiran berbahasa Mandarin dalam output tool tersebut, memicu spekulasi bahwa Composer juga mengandalkan model dasar China.

Cursor sejauh ini menolak berkomentar tentang klaim tersebut. Sikap diam kedua perusahaan ini justru memicu lebih banyak pertanyaan daripada jawaban. Dalam industri yang seharusnya mengedepankan transparansi, sikap tertutup seperti ini mengundang kecurigaan.
Dilema Etika dan Lisensi Open-Source
Inti permasalahan ini terletak pada pertanyaan tentang penggunaan etis dan atribusi dalam AI. Banyak model China, termasuk GLM-4.6, dirilis dengan lisensi permisif seperti MIT yang mengizinkan perusahaan menggunakan dan memodifikasinya secara komersial tanpa kewajiban memberikan kredit.
Secara hukum, praktik ini sah-sah saja. Namun dari sudut pandang etika, ini menimbulkan kekhawatiran tentang keadilan dan transparansi dalam pengembangan AI. Florian Brand, peneliti AI dari Universitas Trier, memberikan perspektif menarik: “fine-tuning adalah ‘saus’-nya”, yang berarti nilai sebenarnya sering kali datang dari kustomisasi dan reinforcement learning, bukan hanya dari model dasar itu sendiri.
Persoalan menjadi semakin kompleks ketika kita mempertimbangkan aspek keamanan dan privasi data. Seperti yang terjadi pada Character.AI yang membatasi pengguna remaja, pertanyaan tentang bagaimana data pengguna diproses dan disimpan menjadi semakin krusial.
Baca Juga:
Perspektif Unik dari Zhipu AI
Yang mengejutkan, Zhipu AI justru melihat perkembangan ini sebagai sesuatu yang positif. Daripada merasa dieksploitasi, perusahaan China tersebut menekankan dampak positif kolaborasi open-source yang memperkuat ekosistem AI global.
Strategi ini ternyata membuahkan hasil nyata. Zhipu AI melaporkan peningkatan sepuluh kali lipat dalam jumlah pengguna berbayar dari luar China dalam beberapa bulan terakhir. Mereka bahkan meluncurkan paket berlangganan coding untuk ekspansi internasional, menunjukkan bahwa model bisnis mereka justru diuntungkan oleh adopsi global.
Pendekatan Zhipu AI ini mengingatkan kita pada pentingnya alat seperti AI Stupid Meter yang memantau kinerja model AI secara transparan. Dalam ekosistem yang semakin terhubung, kemampuan untuk memverifikasi klaim performa menjadi sangat berharga.
Implikasi untuk Pengguna Biasa
Bagi kita sebagai pengguna sehari-hari, kontroversi ini menyoroti kekhawatiran yang semakin besar tentang kepercayaan, transparansi, dan keamanan data dalam tools AI. Ketika perusahaan tidak mengungkapkan asal-usul model mereka, bagaimana kita bisa yakin data kita ditangani dengan benar?
Pertanyaan tentang standar privasi menjadi semakin relevan, terutama dengan maraknya layanan berlangganan AI seperti Opera Neon yang menawarkan peramban AI dengan biaya Rp333 ribu per bulan. Jika kita membayar untuk layanan premium, bukankah kita berhak tahu teknologi apa yang sebenarnya kita gunakan?
Isu ini juga mengangkat pertanyaan etis tentang penggunaan yang adil dan pemberian kredit dalam AI open-source. Tools yang kita andalkan mungkin dibangun di atas karya orang lain tanpa pengakuan yang semestinya. Dalam jangka panjang, praktik seperti ini bisa menghambat inovasi jika kontributor open-source merasa tidak dihargai.
Pada akhirnya, kasus ini menunjukkan betapa AI telah menjadi sangat global dan saling terhubung, mengaburkan batas-batas nasional dan membuat transparansi lebih penting dari sebelumnya untuk membangun kepercayaan pengguna. Seperti halnya ketika memilih Mac terbaik untuk kebutuhan spesifik, memahami apa yang ada di balik teknologi yang kita gunakan menjadi kunci dalam membuat keputusan yang tepat.
Masa depan AI tidak lagi tentang siapa yang membuat teknologi, tetapi tentang bagaimana teknologi tersebut dikembangkan, digunakan, dan diakui. Transparansi bukan lagi sekadar pilihan, melainkan kebutuhan fundamental dalam ekosistem AI yang sehat dan berkelanjutan.

