Telset.id – Jika Anda berpikir bahwa perilisan kode sumber algoritma X (sebelumnya Twitter) baru-baru ini adalah babak baru keterbukaan media sosial, Anda mungkin perlu menahan tepuk tangan itu sejenak. Elon Musk, dengan gaya khasnya yang penuh percaya diri, menyebut langkah ini sebagai kemenangan transparansi saat tim rekayasa X mempublikasikan kode yang menggerakkan fitur “For You” bulan lalu. Ia bahkan secara terbuka mengakui bahwa algoritma tersebut “bodoh” dan membutuhkan perbaikan masif, sembari membanggakan bahwa tidak ada perusahaan media sosial lain yang berani melakukan hal serupa. Namun, di balik klaim heroik tersebut, para peneliti dan pakar teknologi justru menemukan realitas yang jauh lebih rumit dan mengecewakan.
Langkah X untuk menjadikan elemen algoritma rekomendasinya sebagai sumber terbuka memang terdengar revolusioner di atas kertas. Namun, ketika lapisan luarnya dikupas, apa yang disajikan perusahaan tersebut tampaknya tidak memberikan kejernihan yang diharapkan publik. Alih-alih sebuah peta jalan yang jelas tentang bagaimana konten Anda disajikan kepada dunia pada tahun 2026, apa yang kita dapatkan hanyalah potongan-potongan kode yang telah “disensor” atau direduksi secara signifikan. John Thickstun, seorang asisten profesor ilmu komputer di Universitas Cornell, menyoroti masalah ini dengan tajam. Menurutnya, perilisan ini memberikan pretensi transparansi tanpa substansi nyata yang memungkinkan audit atau pengawasan yang berarti.
Kenyataan pahitnya adalah kode ini tidak memungkinkan siapa pun untuk benar-benar memahami cara kerja X saat ini. Thickstun bahkan menegaskan bahwa melakukan audit atau pengawasan menggunakan rilis ini adalah hal yang “tidak mungkin sama sekali”. Ini menimbulkan pertanyaan besar: apakah ini benar-benar upaya transparansi, atau sekadar manuver hubungan masyarakat untuk menenangkan kritik? Situasi ini menjadi semakin pelik ketika kita melihat bagaimana para kreator konten dan pengguna biasa bereaksi, mencoba menerjemahkan potongan kode yang tidak lengkap ini menjadi strategi viral yang belum tentu valid.
Ilusi Transparansi dan Mitos Viralitas
Seperti yang bisa diprediksi, segera setelah kode tersebut dirilis ke publik, gelombang spekulasi membanjiri linimasa. Pengguna X berlomba-lomba memposting utas panjang, membedah apa arti kode tersebut bagi mereka yang haus akan visibilitas. Berbagai teori bermunculan, mulai dari saran untuk “meningkatkan getaran” platform hingga klaim bahwa X akan memberi penghargaan lebih pada pengguna yang aktif bercakap-cakap. Salah satu postingan yang telah dilihat ratusan ribu kali bahkan menyarankan strategi spesifik, sementara yang lain mengklaim bahwa video adalah kunci emas untuk jangkauan yang lebih luas. Ada pula nasihat untuk tetap berada di satu “niche” karena beralih topik dianggap dapat merusak jangkauan akun Anda.
Namun, antusiasme untuk memecahkan kode ini tampaknya sia-sia. Thickstun memperingatkan agar pengguna tidak terlalu serius menanggapi strategi viral yang didasarkan pada rilis kode ini. Menurutnya, kesimpulan semacam itu mustahil ditarik hanya dari apa yang dirilis oleh perusahaan. Meskipun ada beberapa detail kecil yang terungkap—seperti fakta bahwa algoritma menyaring konten yang berusia lebih dari satu hari—sebagian besar informasi tersebut tidak dapat ditindaklanjuti secara praktis oleh para kreator konten. Ini adalah transparansi algoritma yang semu, di mana pengguna dibiarkan meraba-raba dalam gelap sambil merasa telah diberi senter.
Perbedaan struktural antara algoritma saat ini dengan versi yang dirilis pada tahun 2023 juga sangat mencolok dan menambah lapisan ketidakjelasan. Jika sebelumnya sistem bekerja berdasarkan logika yang lebih deterministik, kini X bergantung pada model bahasa besar (LLM) yang mirip dengan Grok untuk memeringkat postingan. Pergeseran ini mengubah fundamental cara konten dinilai, memindahkan kekuasaan dari metrik yang jelas ke prediksi AI yang seringkali tidak dapat dijelaskan.
Baca Juga:
Pergeseran ke “Kotak Hitam” Neural Network
Ruggero Lazzaroni, seorang peneliti PhD di Universitas Graz, memberikan penjelasan teknis yang sangat penting untuk memahami perubahan ini. Pada versi sebelumnya, algoritma X bekerja dengan cara yang dikodekan secara keras (hard-coded): sistem menghitung berapa kali sesuatu disukai, dibagikan, atau dibalas, lalu menghitung skor berdasarkan angka-angka riil tersebut untuk memeringkat postingan. Itu adalah matematika sederhana yang bisa dilacak. Namun, realitas tahun 2026 sangat berbeda. Skor kini tidak lagi diturunkan dari jumlah interaksi nyata, melainkan dari seberapa besar kemungkinan model AI (Grok) berpikir bahwa Anda akan menyukai atau membagikan sebuah postingan.
Perubahan ini membuat algoritma menjadi jauh lebih buram daripada sebelumnya. Thickstun menyebut fenomena ini sebagai pergeseran pengambilan keputusan ke dalam “jaringan saraf kotak hitam” (black box neural networks). Masalah utamanya bukan hanya publik yang tidak bisa melihatnya, tetapi bahkan insinyur internal yang bekerja pada sistem tersebut mungkin kehilangan pemahaman penuh tentang mengapa keputusan tertentu dibuat. Kekuasaan pengambilan keputusan bergeser dari logika manusia ke pola data yang kompleks di dalam jaringan saraf tiruan, menciptakan lapisan misteri yang bahkan prediksi algoritma canggih pun sulit menembusnya.
Lebih jauh lagi, rilis terbaru ini justru memberikan detail yang lebih sedikit dibandingkan tahun 2023 terkait pembobotan interaksi. Dulu, perusahaan secara eksplisit menyatakan “nilai” dari sebuah interaksi—misalnya, sebuah balasan setara dengan 27 retweet, dan balasan yang mendapat respons dari penulis asli bernilai 75 retweet. Kini, informasi krusial tentang bagaimana X menimbang faktor-faktor ini telah disensor dengan alasan keamanan. Tanpa angka-angka ini, peneliti kehilangan pegangan untuk mengukur dampak interaksi secara objektif.
Data Pelatihan yang Hilang dan Risiko Bias
Salah satu lubang terbesar dalam rilis kode ini adalah absennya informasi mengenai data pelatihan. Algoritma pembelajaran mesin hanyalah cerminan dari data yang dipelajarinya, dan tanpa mengetahui “makanan” apa yang diberikan kepada model tersebut, kita tidak bisa memprediksi “kesehatan” output-nya. Mohsen Foroughifar, asisten profesor teknologi bisnis di Universitas Carnegie Mellon, menekankan bahwa mengetahui data pelatihan adalah kunci. Jika data yang digunakan secara inheren bias, maka model tersebut akan tetap bias, tidak peduli seberapa canggih parameter lain yang diterapkan.
Ketidakmampuan untuk melakukan penelitian mendalam pada algoritma rekomendasi X adalah kerugian besar bagi komunitas ilmiah dan publik. Lazzaroni, yang sedang mengerjakan proyek yang didanai UE untuk mengeksplorasi algoritma alternatif, mencatat bahwa kode yang dirilis tidak cukup untuk mereproduksi algoritma rekomendasi tersebut. Kita mungkin memiliki “mesinnya” (kode untuk menjalankan algoritma), tetapi kita tidak memiliki “bahan bakarnya” (model yang dibutuhkan untuk menjalankannya). Ini membuat upaya simulasi atau pengujian independen menjadi mustahil dilakukan.
Implikasi dari ketertutupan ini meluas jauh melampaui sekadar media sosial. Tantangan dan kekhawatiran yang sama tentang perilaku algoritma kemungkinan akan muncul kembali dalam konteks chatbot AI generatif. Thickstun mengingatkan bahwa kita bisa memproyeksikan tantangan yang kita lihat di media sosial ke masa depan interaksi dengan platform GenAI. Kita mungkin akan menghadapi chatbot liar atau sistem yang tidak terkendali jika transparansi data tidak segera ditegakkan.
Pada akhirnya, Lazzaroni memberikan pandangan yang cukup suram namun realistis mengenai motivasi di balik algoritma ini. Perusahaan AI dan media sosial, dalam upaya memaksimalkan keuntungan, mengoptimalkan model bahasa besar mereka untuk keterlibatan pengguna (engagement), bukan untuk kebenaran atau kesehatan mental. Ini adalah masalah klasik yang berulang: perusahaan mendapatkan keuntungan finansial yang lebih besar, sementara pengguna harus membayar harganya dengan masyarakat yang lebih buruk atau kesehatan mental yang terganggu. Transparansi yang setengah hati dari X ini tampaknya hanya menegaskan bahwa di dunia algoritma modern, profit masih menjadi raja di atas segalanya.

