Huawei Siapkan Terobosan AI yang Bisa Kurangi Ketergantungan pada HBM

REKOMENDASI
ARTIKEL TERKAIT

Telset.id – Jika Anda mengira perkembangan kecerdasan buatan (AI) masih bergantung pada teknologi memori impor, bersiaplah untuk terkejut. Huawei dikabarkan tengah mempersiapkan terobosan besar dalam teknologi inferensi AI yang akan diumumkan pada 2025 Financial AI Inference Application Implementation and Development Forum tanggal 12 Agustus mendatang.

Bocoran dari sumber dalam negeri China menyebut, teknologi baru ini berpotensi mengurangi ketergantungan negara tersebut pada High Bandwidth Memory (HBM) – komponen krusial dalam sistem AI. Tak hanya itu, solusi Huawei ini juga diklaim mampu meningkatkan performa inferensi model AI skala besar secara signifikan.

Huawei AI

Mengapa HBM Begitu Penting?

High Bandwidth Memory (HBM) bukan sekadar komponen biasa. Teknologi memori DRAM yang dibangun dengan teknik stacking 3D ini memungkinkan beberapa chip DRAM terintegrasi secara vertikal, menghasilkan kecepatan transfer data yang jauh lebih tinggi dibanding memori konvensional.

Dengan bandwidth ultra-tinggi, latensi rendah, dan efisiensi energi yang baik, HBM menjadi tulang punggung untuk beban kerja AI yang berat. Dalam proses inferensi AI – saat model yang sudah terlatih memproses input baru – akses data secara real-time dalam jumlah besar mutlak diperlukan.

Model AI dengan ratusan miliar parameter sangat bergantung pada HBM untuk menyuplai data tanpa hambatan, memastikan GPU beroperasi pada kapasitas penuh. Bahkan penundaan kecil pun bisa berdampak pada performa, menjadikan HBM komponen tak tergantikan untuk perangkat keras AI kelas atas.

Huawei dan Upaya Mengurangi Ketergantungan pada HBM

Lantas, bagaimana Huawei berencana mengurangi ketergantungan pada HBM? Salah satu jalur yang mungkin ditempuh adalah desain berbasis chiplet, di mana beberapa chip kecil dikemas bersama dan saling terhubung untuk berbagi beban komputasi. Konfigurasi ini bisa mengurangi kebutuhan memori berbandwidth tinggi dengan mendistribusikan tugas pemrosesan secara lebih efisien.

Pendekatan lain melibatkan optimalisasi model AI itu sendiri – mengurangi jumlah parameter atau menggunakan algoritma yang lebih efisien. Perbaikan semacam ini mampu menurunkan tuntutan perangkat keras sambil mempertahankan performa, membuat AI canggih lebih terjangkau dan hemat biaya.

Seperti yang terjadi pada Huawei Pura 80, inovasi Huawei sering kali mampu mengejutkan pasar. Jika teknologi inferensi baru ini bisa menyamai atau melampaui performa sistem berbasis HBM, momen ini bisa menjadi titik balik dalam pengembangan perangkat keras AI.

Dampak Potensial pada Lanskap Teknologi Global

Dengan mengatasi tantangan teknis dan rantai pasok sekaligus, inovasi semacam ini bisa mempercepat swasembada AI China dan mengubah cara sistem AI berkinerja tinggi dibangun. Detail lengkap akan terungkap saat Huawei resmi mengumumkan teknologi ini.

Apakah ini pengganti penuh untuk HBM atau langkah awal untuk mengurangi keterbatasannya, pengumuman ini pasti akan menyedot perhatian industri AI dan semikonduktor global. Terlebih di tengah perkembangan terbaru di mana Huawei Mate XT 2 juga menunjukkan kemajuan signifikan dalam teknologi mobile.

Di sisi lain, keputusan Nvidia dan AMD untuk membayar 15% pendapatan chip mereka dari China kepada AS juga menandai pergeseran signifikan dalam industri teknologi. Inovasi Huawei ini bisa menjadi jawaban atas tantangan geopolitik yang semakin kompleks.

Seperti halnya HUAWEI MatePad Pro 12.2” 2025 yang menghadirkan terobosan di segmen tablet, langkah Huawei dalam bidang AI ini patut ditunggu. Apakah mereka akan kembali mengejutkan dunia? Jawabannya akan segera kita dapatkan.

TINGGALKAN KOMENTAR
Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI