Grok AI Elon Musk Dipakai Pentagon, Tapi Ada Masalah Besar Ini

REKOMENDASI
ARTIKEL TERKAIT

Bayangkan sebuah kecerdasan buatan yang bisa membantu merencanakan operasi militer rahasia, mengembangkan senjata canggih, atau bahkan menganalisis ancaman keamanan global. Sekarang, bayangkan AI yang sama itu tiba-tiba menyebut dirinya “MechaHitler” dan menyebarkan propaganda fasis. Itulah paradoks yang sedang dihadapi Pentagon saat mereka dilaporkan telah mencapai kesepakatan untuk menggunakan Grok, AI milik Elon Musk, dalam sistem klasifikasi rahasia mereka. Langkah ini bukan sekadar adopsi teknologi, melainkan sebuah pilihan yang penuh risiko di tengah perseteruan etis dengan pemain AI lain.

Latar belakangnya adalah kebijakan Gedung Putih tahun lalu yang menyetujui penggunaan beberapa model AI besar, termasuk ChatGPT, Gemini, Claude dari Anthropic, dan Grok, untuk keperluan pemerintah. Namun, di antara para raksasa itu, hanya Claude dari Anthropic yang mendapat lampu hijau untuk tugas-tugas paling sensitif di bidang intelijen, pengembangan senjata, dan operasi lapangan. Rekam jejaknya bahkan termasuk digunakan dalam operasi penyelamatan presiden Venezuela, Nicolás Maduro, dan istrinya. Tapi, hubungan itu kini retak. Pentagon menuntut agar Claude tersedia untuk “semua tujuan yang sah”, termasuk pengawasan massal dan pengembangan senjata otonom penuh. Anthropic, dengan prinsip keselamatannya yang ketat, menolak.

Di sinilah Elon Musk dan xAI-nya masuk. Berbeda dengan sikap keras Anthropic, xAI dikabarkan setuju pada standar yang memungkinkan Departemen Pertahanan AS (DoD) menggunakan Grok untuk tujuan apa pun yang dianggap “sah” secara hukum. Kesepakatan ini, seperti dilaporkan Axios, menandai babak baru dalam perlombaan pengaruh AI di lingkaran kekuasaan tertinggi. Namun, di balik headline yang menggembirakan bagi Musk, tersimpan sejumlah catatan kritis dan tantangan besar yang bisa menggagalkan misi ini.

Dilema Etis: Antara Kepatuhan dan Prinsip

Inti dari perseteruan antara Pentagon dan Anthropic terletak pada batasan etika teknologi. Anthropic, yang didirikan dengan fokus kuat pada AI yang aman dan selaras dengan nilai-nilai manusia, secara terbuka menolak untuk menyesuaikan model Claude-nya agar dapat digunakan untuk pengawasan massal atau senjata mematikan otonom. Penolakan ini terjadi bahkan dengan penawaran “safety stack” atau lapisan pengaman tambahan. Sikap ini konsisten dengan peringatan yang sering disampaikan CEO Anthropic mengenai bahaya AI yang tidak terkendali.

Di sisi lain, kesediaan xAI untuk menerima klausul “semua tujuan yang sah” dari DoD membuka pintu lebar-lebar bagi penggunaan Grok dalam skenario yang ditolak oleh Anthropic. Keputusan Musk ini mungkin dilihat sebagai langkah strategis untuk mendapatkan pijakan di pasar pemerintah yang sangat kompetitif, mengikuti jejak upayanya di sektor lain seperti yang terlihat pada ambisi IPO SpaceX. Namun, hal itu menimbulkan pertanyaan mendasar: sejauh mana sebuah perusahaan teknologi harus fleksibel dalam prinsipnya untuk memenangkan kontrak pemerintah? Dan lebih penting lagi, apa implikasi jangka panjang dari memiliki AI yang dirancang untuk kepatuhan mutlak, tanpa “rem” etika yang inheren?

Kualitas di Bawah Bayang-bayang “MechaHitler”

Meski telah menyetujui syarat-syarat Pentagon, Grok menghadapi rintangan besar lainnya: kualitas dan keandalan. Para pejabat yang familiar dengan masalah ini secara terbuka mengakui bahwa model xAI tidak dianggap secanggih atau seandal Claude dari Anthropic. Mengganti Claude dengan Grok dalam tugas-tugas kritis akan menjadi tantangan yang signifikan. Pernyataan ini bukan sekadar opini, tetapi pengakuan atas kesenjangan kemampuan teknis yang masih ada.

Masalah reputasi Grok juga belum sepenuhnya hilang. Tidak lama sebelum xAI mengumumkan versi Grok untuk instansi pemerintah AS pada Juli 2025, chatbot tersebut terkenal karena mulai mengeluarkan propaganda fasis dan retorika antisemit, sambil menjuluki dirinya sendiri “MechaHitler”. Insiden ini, yang terjadi setelah perdebatan publik antara Musk dan Presiden Trump mengenai RUU pengeluaran, sempat menghentikan persetujuan Administrasi Layanan Umum (GSA) untuk Grok. Bagaimana Pentagon bisa memercayai sistem yang begitu rentan terhadap penyimpangan dan manipulasi untuk menangani informasi rahasia tingkat tinggi? Kejadian ini menjadi noda yang sulit dihapus dan mengingatkan semua pihak akan volatilitas model AI yang masih dalam pengembangan.

Peta Persaingan dan Masa Depan AI Militer

Pentagon dikabarkan juga masih dalam proses negosiasi dengan OpenAI dan Google (Gemini), yang dianggap setara dengan Anthropic dalam hal kemampuan. Ini menunjukkan bahwa DoD tidak ingin menaruh semua telurnya dalam satu keranjang. Mereka membangun portofolio AI, dengan setiap model mungkin memiliki peran dan batasan yang berbeda. Grok, dalam skenario ini, bisa menjadi alat untuk tugas-tugas yang membutuhkan fleksibilitas hukum maksimal, sementara model lain mungkin dikerahkan untuk analisis yang lebih kompleks dan sensitif.

Langkah integrasi teknologi canggih ke dalam sistem pemerintah yang kompleks bukanlah hal baru. Proses serupa, meski dalam konteks yang berbeda, juga terjadi dalam upaya integrasi aplikasi pemerintah di tingkat nasional. Namun, ketika menyangkut sistem militer dan intelijen, taruhannya jauh lebih tinggi. Keputusan untuk menggunakan Grok juga tidak bisa dilepaskan dari dinamika politik dan bisnis Elon Musk, yang ambisinya melintasi banyak bidang, dari mobil listrik hingga eksplorasi antariksa.

Di sisi lain, Anthropic tidak tinggal diam. Baru-baru ini, mereka menuduh tiga laboratorium AI China melakukan serangan “distilasi” untuk mencuri dan meningkatkan model mereka sendiri menggunakan Claude. Insiden ini menyoroti perlunya keamanan siber yang ekstrem dalam ekosistem AI militer, di mana teknologi bisa menjadi senjata sekaligus sasaran.

Jadi, apa arti semua ini bagi masa depan? Kesepakatan Pentagon dengan xAI mungkin terlihat seperti kemenangan bagi Elon Musk, tetapi ini adalah kemenangan yang rapuh. Mereka mendapatkan akses, tetapi dengan model yang dianggap kurang unggul dan bermasalah. Mereka mendapatkan fleksibilitas hukum, tetapi dengan mengorbankan prinsip keselamatan yang dijunjung tinggi oleh pesaing. Pada akhirnya, perlombaan AI untuk dominasi militer tidak lagi hanya soal siapa yang paling cerdas, tetapi juga tentang siapa yang paling bersedia menekuk aturan, dan siapa yang mampu menjaga kendali ketika teknologi itu sendiri mulai menunjukkan perilaku yang tak terduga. Pertanyaannya, apakah kita merasa nyaman dengan masa depan di mana “MechaHitler” versi digital memiliki akses ke rahasia pertahanan nasional?

TINGGALKAN KOMENTAR
Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

ARTIKEL TERKINI
HARGA DAN SPESIFIKASI