Ketika logo X berkedip di layar ponsel pintar Anda, pernahkah terbesit pertanyaan tentang mengapa sebuah postingan tertentu muncul di lini masa? Bulan lalu, tim teknis X merilis kode yang menjadi otak di balik algoritma “For You” mereka. Elon Musk, dengan gaya khasnya, mengklaim langkah ini sebagai kemenangan besar bagi transparansi media sosial. “Kami tahu algoritmanya bodoh dan butuh perbaikan masif, tapi setidaknya Anda bisa melihat kami berjuang memperbaikinya secara real-time,” tulis Musk. Ia bahkan sesumbar bahwa tidak ada perusahaan media sosial lain yang berani melakukan hal serupa.
Klaim tersebut memang terdengar heroik di telinga pengguna awam. Namun, realitas di lapangan ternyata tidak seindah narasi yang dibangun. Meskipun benar bahwa X adalah satu-satunya jejaring sosial raksasa yang membuka elemen rekomendasi mereka menjadi open source, para peneliti justru skeptis. Apa yang dipublikasikan perusahaan tersebut dianggap tidak memberikan transparansi yang sesungguhnya, terutama bagi siapa saja yang ingin memahami cara kerja X di tahun 2026 ini.
John Thickstun, asisten profesor ilmu komputer di Cornell University, menyebut kode tersebut sebagai versi yang “disensor”. Mirip dengan rilis versi awal pada tahun 2023, kode terbaru ini memberikan ilusi keterbukaan tanpa substansi. “Apa yang mengganggu saya adalah rilis ini memberikan kepura-puraan bahwa mereka transparan… dan kesan bahwa seseorang mungkin bisa menggunakan rilis ini untuk melakukan audit atau pengawasan,” ujar Thickstun. Faktanya, melakukan audit mendalam dari kode yang dipangkas tersebut nyaris mustahil dilakukan.
Mitos Viral dan Realitas Kreator
Sudah bisa ditebak, sesaat setelah kode tersebut dirilis, para “pakar” dadakan di X mulai membedah dan membagikan teori konspirasi tentang cara meningkatkan visibilitas. Utas-utas panjang bermunculan, menjanjikan rahasia viral bagi para kreator konten. Salah satu postingan yang dilihat lebih dari 350.000 kali menyarankan pengguna untuk “lebih banyak bercakap-cakap” demi menaikkan “getaran” akun mereka. Ada pula yang mengklaim bahwa video adalah kunci segalanya, sementara yang lain menyarankan untuk tetap pada satu topik spesifik atau niche agar jangkauan tidak anjlok.
Namun, Thickstun memperingatkan Anda untuk tidak menelan mentah-mentah strategi tersebut. Menurutnya, mustahil menarik kesimpulan strategi viral hanya dari potongan kode yang dirilis X. Meskipun ada detail kecil yang terungkap—seperti fakta bahwa algoritma menyaring konten yang berusia lebih dari satu hari—sebagian besar informasi tersebut tidak dapat ditindaklanjuti secara teknis oleh kreator. Klaim-klaim viral tersebut seringkali hanya spekulasi tanpa dasar teknis yang kuat, berbeda dengan Janji Elon Musk yang seringkali terdengar manis di awal.
Struktur algoritma X saat ini juga telah mengalami perubahan fundamental dibandingkan versi 2023. Perbedaan terbesarnya terletak pada penggunaan model bahasa besar (LLM) yang mirip dengan Grok untuk memeringkat postingan. Jika sebelumnya sistem bekerja berdasarkan metrik kaku seperti jumlah likes atau share, kini segalanya menjadi lebih abstrak dan sulit ditebak.
Pergeseran ke “Kotak Hitam” AI
Ruggero Lazzaroni, peneliti PhD di Universitas Graz, menjelaskan pergeseran drastis ini. “Pada versi sebelumnya, ini di-hard code: Anda mengambil berapa kali sesuatu disukai, dibagikan, atau dibalas… lalu berdasarkan itu Anda menghitung skor,” jelasnya. Namun kini, skor tersebut tidak lagi berasal dari jumlah interaksi nyata, melainkan dari prediksi AI tentang seberapa besar kemungkinan Grok “berpikir” Anda akan menyukai atau membagikan sebuah postingan.
Perubahan ini membuat algoritma X menjadi jauh lebih tidak transparan dibandingkan sebelumnya. Thickstun menyebutnya sebagai pergeseran pengambilan keputusan ke dalam “jaringan saraf kotak hitam”. Ironisnya, semakin canggih sistemnya, semakin sedikit yang bisa dipahami oleh publik, bahkan mungkin oleh insinyur internal X sendiri. Keputusan algoritma kini terkubur dalam lapisan data pelatihan yang rumit, sebuah fenomena yang juga mulai terlihat pada Algoritma Instagram di platform tetangga.
Baca Juga:
Data Pelatihan yang Masih Misterius
Kekecewaan para peneliti semakin bertambah ketika menyadari bahwa rilis terbaru ini justru memuat lebih sedikit detail dibandingkan tahun 2023. Kala itu, X masih menyertakan informasi tentang bobot interaksi—misalnya, satu balasan setara dengan 27 retweet. Kini, informasi krusial tersebut telah disensor dengan alasan keamanan. Kode tersebut juga sama sekali tidak menyertakan informasi mengenai data apa yang digunakan untuk melatih algoritma tersebut.
Mohsen Foroughifar, asisten profesor di Carnegie Mellon University, menekankan pentingnya transparansi data pelatihan. “Jika data yang digunakan untuk melatih model ini secara inheren bias, maka model tersebut mungkin akan tetap bias, terlepas dari hal apa pun yang Anda pertimbangkan dalam modelnya,” tegasnya. Tanpa mengetahui “makanan” apa yang diberikan kepada AI, kita tidak akan pernah benar-benar tahu mengapa ia memuntahkan rekomendasi tertentu. Hal ini mengingatkan kita pada masalah serupa yang terjadi pada Algoritma Musik di platform streaming yang seringkali gagal memahami selera pengguna secara akurat.
Bagi Lazzaroni, yang sedang mengerjakan proyek didanai UE untuk mengeksplorasi algoritma alternatif, kode yang dirilis X tidak cukup untuk mereproduksi sistem rekomendasi mereka. “Kami memiliki kode untuk menjalankan algoritma, tetapi kami tidak memiliki model yang Anda butuhkan untuk menjalankan algoritma tersebut,” ujarnya. Ini seperti diberikan mesin mobil balap tanpa kunci kontak dan bahan bakarnya.
Profit di Atas Kesehatan Mental?
Implikasi dari ketertutupan ini melampaui sekadar urusan media sosial. Thickstun mengingatkan bahwa tantangan yang kita lihat pada algoritma rekomendasi X—seperti bias dan kotak hitam—kemungkinan besar akan muncul kembali dalam konteks chatbot AI generatif. Apa yang terjadi di media sosial hari ini adalah cerminan masa depan interaksi kita dengan platform GenAI.
Lazzaroni memberikan pandangan yang lebih tajam dan menohok. Ia menilai bahwa perusahaan AI, demi memaksimalkan keuntungan, mengoptimalkan model bahasa besar mereka semata-mata untuk keterlibatan pengguna (engagement), bukan untuk kebenaran atau kesehatan mental. “Mereka mendapat lebih banyak keuntungan, tetapi pengguna mendapatkan masyarakat yang lebih buruk, atau kesehatan mental yang lebih buruk,” pungkasnya. Di tengah upaya platform lain seperti TikTok yang mulai menguji Fitur Reset untuk menyegarkan algoritma, X tampaknya masih berkutat pada labirin AI yang membingungkan.
Pada akhirnya, transparansi yang dijanjikan Musk tampaknya masih jauh panggang dari api. Bagi Anda pengguna setia X, memahami bahwa apa yang Anda lihat di “For You” adalah hasil prediksi mesin yang dilatih demi profit, mungkin bisa menjadi langkah awal untuk lebih bijak dalam berselancar di dunia maya.

