Telset.id, Jakarta – DeepSeek tiba-tiba muncul sebagai pesaing kuat di industri kecerdasan buatan (AI), mengalahkan model AI terbaik yang ada dengan efisiensi tinggi dan biaya rendah. Namun, di balik prestasinya, DeepSeek juga menjadi pusat berbagai kontroversi, termasuk masalah keamanan dan etika pengembangan AI.
Salah satu isu terbesar yang kini tengah mencuat adalah dugaan bahwa DeepSeek menggunakan data hasil ekstraksi dari sistem OpenAI, alhasil kini Microsoft langung menyelidiki kemungkinan terjadinya pencurian data oleh DeepSeek tersebut.
Dalam waktu singkat, DeepSeek R1 telah bertransformasi dari inovasi yang menjanjikan menjadi ancaman keamanan. Model ini diketahui memiliki celah yang memungkinkan pengguna untuk mengeksploitasi sistemnya dan memperoleh informasi berbahaya, seperti cara membuat senjata, merancang malware, hingga meracik zat beracun.
BACA JUGA:
- Persaingan AI Memanas, DeepSeek Salip ChatGPT di App Store
- China Disebut Bisa Salip AS dalam Bidang AI
Di sisi lain, keberadaan DeepSeek juga memicu dampak besar di pasar saham, menyebabkan kerugian hampir satu triliun dolar bagi perusahaan teknologi AI.
Nvidia, salah satu perusahaan yang paling terdampak, mengalami penurunan nilai pasar hampir $600 miliar (sekitar Rp9.500 triliun) hanya dalam satu hari. Microsoft sendiri mengalami penurunan sekitar $72,2 miliar (sekitar Rp1.150 triliun) akibat kekhawatiran investor terhadap teknologi baru ini.
Microsoft kini mulai menyelidiki DeepSeek karena adanya indikasi bahwa sistem OpenAI telah menjadi target ekstraksi data dalam jumlah besar. Dugaan ini muncul setelah Microsoft mendeteksi aktivitas mencurigakan dalam sistem OpenAI yang mengarah pada kemungkinan pencurian data melalui API OpenAI.
Investigasi awal menunjukkan bahwa kelompok yang diduga terkait dengan DeepSeek menggunakan teknik distillation, yaitu proses mengambil keluaran dari satu model AI dan menggunakannya untuk melatih model lain. Jika dugaan ini benar, maka DeepSeek R1 mungkin dikembangkan dengan menggunakan data hasil distilasi dari ChatGPT, yang merupakan model AI milik OpenAI.
Proses distillation ini bukan hanya menimbulkan masalah hukum dan etika, tetapi juga dapat berdampak buruk pada kualitas model AI yang dihasilkan. Data yang digunakan dalam pelatihan bisa saja mengandung informasi yang tidak akurat atau bias, yang berisiko menghasilkan model AI yang tidak dapat diandalkan.
Hingga saat ini, baik Microsoft, OpenAI, DeepSeek, maupun perusahaan induknya, High-Flyer, belum memberikan pernyataan resmi terkait penyelidikan ini.
Jika tuduhan pencurian data ini terbukti, DeepSeek bisa menghadapi konsekuensi besar, mulai dari tuntutan hukum hingga sanksi berat dari regulator teknologi.
Hal ini juga dapat memicu perdebatan lebih luas tentang perlindungan data dalam pengembangan AI, terutama mengingat persaingan di industri ini semakin ketat.
BACA JUGA:
- Meski Populer, Chatbot AI DeepSeek Batasi Pendaftaran Pengguna
- Apakah Teknologi AI akan Menggantikan Smartphone di Masa Depan?
Situasi ini menunjukkan bahwa meskipun inovasi AI berkembang pesat, aspek keamanan, transparansi, dan etika tetap menjadi faktor krusial yang tidak bisa diabaikan. Dengan semakin banyaknya perusahaan besar yang memperhatikan kasus DeepSeek, perkembangan investigasi ini akan menjadi sorotan utama dalam industri teknologi dalam waktu dekat.