DeepSeek-R1-Safe: AI China “Hampir 100%” Hindari Topik Sensitif

REKOMENDASI
ARTIKEL TERKAIT

Telset.id – Bayangkan sebuah AI yang hampir sempurna menghindari pembicaraan politik sensitif. Itulah yang ditawarkan DeepSeek-R1-Safe, versi baru model bahasa besar China yang diklaim “hampir 100% sukses” mencegah diskusi topik kontroversial. Apakah ini masa depan AI yang patuh regulasi?

Menurut laporan eksklusif Reuters, model ini dikembangkan oleh raksasa teknologi China, Huawei, bekerja sama dengan peneliti dari Zhejiang University. Yang menarik, DeepSeek sebagai pengembang original justru tidak terlibat dalam proyek ini. Mereka mengambil model open-source DeepSeek R1 dan melatihnya menggunakan 1.000 chip AI Huawei Ascend untuk menciptakan versi yang lebih “aman” secara politis.

Hasilnya? Sebuah model AI yang menurut Huawei hanya kehilangan sekitar 1% dari kecepatan dan kemampuan model original, namun jauh lebih mampu menghindari “ucapan beracun dan berbahaya, konten politis sensitif, dan hasutan kegiatan ilegal.” Sebuah trade-off yang menarik antara kinerja dan kepatuhan.

Keberhasilan dan Kelemahan yang Tak Terhindarkan

Meski diklaim hampir sempurna, DeepSeek-R1-Safe bukan tanpa celah. Dalam penggunaan dasar, model ini menunjukkan tingkat keberhasilan hampir 100%. Namun, ketika pengguna menyamarkan maksud mereka melalui tantangan atau skenario role-playing, kemampuan model untuk menghindari percakapan bermasalah turun drastis menjadi hanya 40%.

Fenomena ini mengingatkan kita pada kecenderungan model AI modern yang seringkali terlalu antusias menjalankan skenario hipotetis, sehingga melanggar batasan yang telah ditetapkan. Seperti remaja yang pintar mencari celah aturan, AI ini masih bisa dibujuk untuk berbicara hal-hal yang seharusnya dihindari.

Kepatuhan Regulasi sebagai Prioritas Utama

Pengembangan DeepSeek-R1-Safe tidak terjadi dalam vacuum. Menurut Reuters, model ini dirancang khusus untuk mematuhi persyaratan regulator China yang mewajibkan semua model AI yang dirilis untuk publik harus mencerminkan nilai-nilai negara dan mematuhi pembatasan berbicara.

Ini bukan hal baru di China. Chatbot Ernie dari Baidu, misalnya, terkenal karena menolak menjawab pertanyaan tentang politik domestik China atau Partai Komunis China yang berkuasa. Pola yang sama terlihat di berbagai model AI China lainnya yang secara ketat mengikuti pedoman konten pemerintah.

Perkembangan ini juga mengingatkan pada rencana DeepSeek meluncurkan AI agent canggih akhir 2025 yang jelas harus mempertimbangkan aspek kepatuhan regulasi ini. Bahkan kolaborasi seperti Hey Tesla yang dikembangkan bersama ByteDance pasti menghadapi tantangan serupa.

Fenomena Global AI yang “Dijinakkan”

China bukan satu-satunya negara yang berusaha memastikan AI yang digunakan di wilayahnya tidak terlalu “mengguncang perahu”. Tahun ini saja, perusahaan teknologi Arab Saudi, Humain, meluncurkan chatbot native Arab yang fasih berbahasa Arab dan dilatih untuk mencerminkan “budaya, nilai, dan warisan Islam”.

Model buatan Amerika juga tidak kebal terhadap ini. OpenAI secara eksplisit menyatakan bahwa ChatGPT “condong ke pandangan Barat”. Dan di bawah pemerintahan Trump, rencana aksi AI Amerika termasuk persyaratan bahwa model AI mana pun yang berinteraksi dengan lembaga pemerintah harus netral dan “tidak bias”.

Definisi “tidak bias” ini pun menjadi menarik. Menurut perintah eksekutif yang ditandatangani Trump, model yang mengamankan kontrak pemerintah harus menolak hal-hal seperti “dogma iklim radikal”, “keberagaman, kesetaraan, dan inklusi”, serta konsep seperti “teori ras kritis, transgenderisme, bias tidak sadar, interseksionalitas, dan rasisme sistemik”.

Jadi, sebelum kita melemparkan kritik tentang “pemimpin tersayang” ke China, mungkin lebih baik kita melihat ke cermin terlebih dahulu. Setiap negara memiliki caranya sendiri dalam “menjinakkan” AI sesuai dengan nilai-nilai dan kepentingannya.

Perkembangan DeepSeek-R1-Safe juga mengingatkan pada kendala yang dihadapi DeepSeek dalam pengembangan model sebelumnya, menunjukkan bahwa tantangan teknis dan regulasi seringkali berjalan beriringan.

Lalu, apa artinya semua ini untuk masa depan AI? Apakah kita akan melihat semakin banyak model yang “dijinakkan” untuk mematuhi nilai-nilai tertentu? Ataukah akan muncul resistensi dari pengembang yang ingin menjaga netralitas AI? Yang jelas, pertarungan antara kebebasan berekspresi dan kepatuhan regulasi dalam dunia AI baru saja dimulai.

DeepSeek-R1-Safe mungkin hanya merupakan babak pertama dari saga panjang ini. Sebagai pengguna AI, kita perlu terus kritis dan aware terhadap bias yang mungkin dibawa oleh setiap model, baik yang berasal dari China, Amerika, atau negara manapun. Karena pada akhirnya, AI yang benar-benar cerdas adalah yang mampu memahami kompleksitas manusia tanpa terjebak dalam agenda politik tertentu.

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI