Model AI Raksasa Akan Beri Hasil Menurun, Kata Studi MIT

REKOMENDASI
ARTIKEL TERKAIT

Telset.id – Model kecerdasan buatan (AI) skala besar yang membutuhkan komputasi intensif mungkin akan memberikan hasil yang semakin menurun dibandingkan model yang lebih kecil. Temuan ini berasal dari studi terbaru Massachusetts Institute of Technology (MIT) yang memetakan hukum penskalaan terhadap peningkatan efisiensi model.

Peneliti menemukan bahwa semakin sulit untuk mendapatkan lompatan performa dari model raksasa, sementara peningkatan efisiensi justru dapat membuat model yang berjalan pada perangkat keras lebih sederhana semakin mampu dalam dekade mendatang. “Dalam lima hingga 10 tahun ke depan, berbagai hal sangat mungkin mulai menyempit,” kata Neil Thompson, ilmuwan komputer dan profesor di MIT yang terlibat dalam studi tersebut.

Lompatan efisiensi, seperti yang terlihat pada model DeepSeek dengan biaya sangat rendah pada Januari lalu, telah menjadi pengingat realitas bagi industri AI yang terbiasa menghabiskan sumber daya komputasi dalam jumlah masif. Saat ini, model terdepan dari perusahaan seperti OpenAI memang jauh lebih unggul daripada model yang dilatih dengan sebagian kecil komputasi dari laboratorium akademik.

Prediksi tim MIT mungkin tidak berlaku jika, misalnya, metode pelatihan baru seperti reinforcement learning menghasilkan temuan mengejutkan. Namun, mereka menyarankan bahwa perusahaan AI besar akan memiliki keunggulan yang lebih kecil di masa depan.

Efisiensi Algorithm vs Skala Komputasi

Hans Gundlach, ilmuwan peneliti di MIT yang memimpin analisis, tertarik pada masalah ini karena sifat model mutakhir yang sulit dijalankan. Bersama Thompson dan Jayson Lynch, ilmuwan peneliti lain di MIT, ia memetakan performa masa depan model terdepan dibandingkan dengan yang dibangun dengan sarana komputasi lebih sederhana.

Gundlach mengatakan tren yang diprediksi sangat terlihat untuk model penalaran yang kini sedang tren, yang lebih bergantung pada komputasi tambahan selama inferensi. Thompson menambahkan bahwa hasil ini menunjukkan nilai menyempurnakan algoritma serta meningkatkan skala komputasi.

“Jika Anda menghabiskan banyak uang untuk melatih model-model ini, maka Anda seharusnya juga mengalokasikan sebagiannya untuk mengembangkan algoritma yang lebih efisien, karena hal itu dapat sangat berpengaruh,” tegas Thompson.

Infrastruktur AI dan Pertanyaan Keberlanjutan

Studi ini menjadi semakin relevan mengingat booming infrastruktur AI saat ini yang menunjukkan sedikit tanda melambat. OpenAI dan perusahaan teknologi AS lainnya telah menandatangani kesepakatan senilai ratusan miliar dolar untuk membangun infrastruktur AI di Amerika Serikat.

“Dunia membutuhkan lebih banyak komputasi,” proklamasi presiden OpenAI, Greg Brockman, pekan ini saat mengumumkan kemitraan antara OpenAI dan Broadcom untuk chip AI khusus. Namun, semakin banyak pakar yang mempertanyakan kelayakan kesepakatan ini.

Sekitar 60 persen biaya pembangunan pusat data dialokasikan untuk GPU, yang cenderung cepat mengalami depresiasi. Kemitraan antara pemain utama juga tampak melingkar dan tidak transparan. Jamie Dimon, CEO JP Morgan, menjadi nama besar terbaru di dunia keuangan yang mengeluarkan peringatan, mengatakan kepada BBC pekan lalu bahwa “tingkat ketidakpastian seharusnya lebih tinggi dalam pikiran kebanyakan orang.”

Demam infrastruktur AI tidak sepenuhnya tentang membangun model yang lebih mampu. OpenAI secara efektif bertaruh bahwa permintaan untuk alat AI generatif baru akan tumbuh secara eksponensial. Perusahaan juga mungkin berusaha mengurangi ketergantungan pada Microsoft dan Nvidia serta mengubah valuasi massive $500 miliar menjadi infrastruktur yang dapat mereka desain dan kustomisasi.

Meski demikian, akan lebih bijaksana bagi industri untuk menggunakan analisis seperti yang diperkenalkan dari MIT untuk mengeksplorasi bagaimana algoritma dan perangkat keras dapat berevolusi dalam beberapa tahun ke depan. Pembangunan boom yang kini menopang sebagian besar ekonomi AS juga dapat memiliki konsekuensi bagi inovasi Amerika.

Dengan berinvestasi sangat besar dalam GPU dan chip lain yang dikhususkan untuk deep learning, perusahaan AI mungkin melewatkan peluang baru yang bisa datang dari mengeksplorasi ide-ide dari pinggiran akademisi, seperti alternatif untuk deep learning, desain chip novel, dan bahkan pendekatan seperti komputasi kuantum. Bagaimanapun, dari sanalah terobosan AI hari ini berasal.

Perkembangan ini sejalan dengan tren efisiensi komputasi yang sedang digalakkan berbagai pihak, termasuk inovasi chip hybrid seperti yang dikembangkan Fudan University dengan chip hybrid 2D-silicon pertamanya di dunia. Sementara itu, perusahaan seperti Apple terus mendorong efisiensi perangkat dengan prosesor seperti yang digunakan dalam MacBook Air M4 yang menawarkan performa tinggi dengan konsumsi daya optimal.

Integrasi AI yang semakin cerdas juga terlihat dalam pengembangan sistem operasi, seperti ColorOS 16 yang baru saja dirilis dengan fitur AI cerdas untuk pengalaman pengguna yang lebih baik. Pendekatan efisiensi ini mencerminkan perlunya keseimbangan antara kemampuan komputasi dan konsumsi sumber daya, sebagaimana prediksi studi MIT.

Sebagai perbandingan dengan bidang lain yang juga membutuhkan komputasi intensif, penelitian astronomi seperti studi tentang Bintik Merah Besar Jupiter yang menyusut secara misterius menunjukkan bagaimana analisis data skala besar tetap dapat dilakukan dengan pendekatan komputasi yang efisien.

TINGGALKAN KOMENTAR
Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI