DeepSeek V3.1: Model AI Terkuat dengan 128 Ribu Token Konteks

REKOMENDASI
ARTIKEL TERKAIT

Telset.id – Bayangkan sebuah model kecerdasan buatan yang mampu membaca dan memahami buku setebal 400 halaman dalam sekali tarikan napas. Itulah yang baru saja dihadirkan oleh DeepSeek dengan peluncuran V3.1, model bahasa besar terbaru mereka yang menggebrak dunia AI dengan konteks window 128.000 token.

Perusahaan asal Tiongkok ini secara diam-diam mengumumkan pembaruan besar melalui grup pengguna WeChat pada 19 Agustus, tanpa pesta kembang api di media sosial resmi mereka. Sebuah langkah yang justru membuat komunitas AI internasional bergumam: apa sebenarnya yang sedang dipersiapkan DeepSeek?

Peningkatan paling signifikan terletak pada kemampuan menangani input panjang. Dengan 128.000 token, V3.1 kini dapat memproses konten setara 300-400 halaman buku. Ini bukan sekadar angka—ini revolusi dalam generasi konten panjang, analisis dokumen teknis, dan percakapan multi-turn yang lebih dalam dan koheren.

Yang menarik, grup resmi DeepSeek mengonfirmasi bahwa ekspansi konteks ini sebenarnya sudah didukung secara internal di versi V3 sebelumnya. Namun, kini kemampuan tersebut secara resmi diaktifkan di semua antarmuka, membuka akses lebih luas bagi developer dan pengguna akhir.

Arsitektur MoE dan Performa Benchmark

DeepSeek V3.1 mempertahankan arsitektur Mixture-of-Experts (MoE) yang efisien, dengan hanya 37 miliar parameter yang diaktifkan per token. Model ini mendukung berbagai format presisi termasuk BF16, FP8, dan F32, memberikan fleksibilitas optimal untuk berbagai lingkungan deployment.

Bagi developer yang tertarik, model ini dapat diakses melalui API atau diunduh langsung dari Hugging Face dengan lisensi open-source MIT. Sebuah langkah berani yang mengingatkan pada inisiatif startup AI yang mengubah cara pelatihan model bahasa besar secara global.

Hasil benchmark awal cukup mengesankan. Skor 71,6% pada tes coding Aider menempatkannya di atas Claude Opus 4, menjadikannya salah satu model coding open-source terkuat saat ini. Peningkatan juga terlihat dalam tugas matematika dan logika, meski beberapa pengguna melaporkan tidak ada peningkatan signifikan dalam reasoning dibanding model R1-0528 sebelumnya.

Perubahan Strategi dan Biaya Pelatihan

DeepSeek secara mencolok menghapus semua referensi ke model R1 dari antarmuka chatbot mereka. Ini sinyal kuat pergeseran menuju arsitektur model hybrid tunggal, di mana kemampuan reasoning diintegrasikan ke dalam V3.1 alih-alih mempertahankan model reasoning terpisah.

Biaya pelatihan V3.1 tidak diungkapkan. Namun berdasarkan laporan sebelumnya, model V3 asli dilatih selama 2,788 juta jam GPU menggunakan chip Nvidia H800, dengan perkiraan biaya $5,6 juta. Model inilah yang menjadi dasar versi saat ini, kemungkinan berbagi infrastruktur serupa dengan penyempurnaan tambahan.

Langkah ini menunjukkan bagaimana pergantian pekerja manusia dengan AI tidak hanya terjadi di level aplikasi, tetapi juga dalam pengembangan model AI itu sendiri.

Kebingungan Seputar Penundaan Model R2

Komunitas AI sempat berharap besar pada peluncuran model R2 yang dirumorkan akan memajukan kemampuan reasoning. Alih-alih R2, yang muncul justru V3.1. Laporan Financial Times mengungkap bahwa penundaan R2 disebabkan masalah teknis persisten dengan chip AI Ascend milik Huawei.

DeepSeek didorong menggunakan hardware Ascend untuk mengurangi ketergantungan pada Nvidia, selaras dengan strategi nasional Tiongkok untuk swasembada AI. Sayangnya, pelatihan pada Ascend gagal karena masalah kompatibilitas dan performa. Perusahaan kemudian beralih ke GPU Nvidia untuk pelatihan sambil mempertahankan Ascend untuk inference—setup hybrid yang justru menimbulkan komplikasi dan penundaan lebih lanjut.

Waktu yang diperpanjang untuk pelabelan data juga memperlambat perkembangan. Pendiri DeepSeek Liang Wenfeng dikabarkan frustrasi dengan progress yang lambat. Sementara itu, kompetitor seperti Qwen3 milik Alibaba sudah bergerak lebih depan dengan algoritma serupa dan eksekusi lebih efisien.

Episode ini menggarisbawahi keterbatasan infrastruktur chip domestik Tiongkok dan tantangan yang dihadapi startup yang berusaha memenuhi tuntutan politik dan teknis secara bersamaan. DeepSeek belum menutup kemungkinan peluncuran R2, namun kapan pun model itu tiba, performanya akan menghadapi pengawasan intensif.

Untuk saat ini, V3.1 berdiri sebagai flagship perusahaan, melayani workload reasoning dan non-reasoning dalam framework terunifikasi. Sebuah pencapaian yang patut diapresiasi, meski diwarnai kompleksitas geopolitik dan teknis yang tidak sederhana.

Perkembangan terbaru dalam dunia AI seperti Google Flow untuk pembuatan video dengan bahasa alami menunjukkan betapa dinamisnya lanskap teknologi ini. DeepSeek V3.1 bukan akhir dari perlombaan—ini justru babak baru yang lebih menantang.

TINGGALKAN KOMENTAR
Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI