Bayangkan Anda sedang bersantai dengan teman-teman seusai latihan sepak bola, menikmati sore yang tenang di halaman sekolah. Tiba-tiba, delapan mobil polisi berderet mengerubungi Anda, senjata diarahkan, dengan perintah tegas: “Tiarap!” Inilah kenyataan pahit yang dialami Taki Allen, remaja di Baltimore yang nyaris menjadi korban kesalahan sistem keamanan berbasis kecerdasan buatan. Kejahatan yang dituduhkan? Membawa kantong keripik Doritos.
Insiden yang terjadi di Kenwood High School ini bukan sekadar cerita lucu tentang teknologi yang gagal. Ini adalah potret mengkhawatirkan tentang bagaimana sistem otomasi keamanan—yang seharusnya melindungi—justru berpotensi menciptakan situasi berbahaya. Menurut laporan NBC affiliate WBAL-TV 11, sistem keamanan otomatis sekolah mendeteksi kantong keripik yang terlipat di saku Allen sebagai senjata api. Alarm pun berbunyi, mengirimkan puluhan petugas bersenjata ke lokasi.
Fenomena ini mengingatkan kita pada kerentanan teknologi AI dalam mengenali objek sehari-hari. Seperti yang diungkapkan dalam penelitian Anthropic tentang kerentanan AI, sistem pembelajaran mesin memang rentan terhadap misinterpretasi data. Dalam kasus Allen, algoritma pendeteksi senjata mungkin mengidentifikasi bentuk tidak beraturan kantong keripik sebagai ancaman potensial.
Momen Menegangkan yang Berakhir dengan Kelegaan
“Awalnya saya tidak tahu mereka menuju ke mana, sampai mereka mulai berjalan ke arah saya dengan senjata, berkata ‘Tiarap!’, dan saya hanya bisa bilang ‘Apa?'” kenang Allen dalam wawancara dengan WBAL-TV 11 News. Pengalaman traumatis itu berlanjut dengan pemeriksaan fisik yang intens. “Mereka menyuruh saya berlutut, meletakkan tangan di belakang punggung, dan memborgol saya,” tambah remaja tersebut.
Setelah pencarian menyeluruh, petugas akhirnya menemukan kebenaran yang hampir tak terduga: tidak ada senjata, hanya kantong keripik yang tergeletak di lantai. Ketika ditunjukkan gambar yang memicu alarm, Allen hanya bisa berkata, “Itu bukan senjata, itu keripik.” Pertanyaan yang terlintas di benaknya selama proses itu mengungkapkan tingkat trauma yang dialami: “Apakah saya akan mati? Apakah mereka akan membunuh saya?”
Respons Institusi dan Teknologi di Balik Insiden
Pernyataan resmi dari kepala sekolah Kenwood High School memberikan penjelasan lebih detail tentang kronologi kejadian. Sekitar pukul 19.00, administrasi sekolah menerima peringatan bahwa ada individu di area sekolah yang mungkin membawa senjata. Departemen Keamanan dan Keselamatan Sekolah dengan cepat meninjau dan membatalkan peringatan awal setelah memastikan tidak ada senjata.
Namun, protokol keamanan telah terpicu. Kepala sekolah menghubungi petugas sumber daya sekolah (SRO) yang kemudian meminta dukungan tambahan dari kepolisian setempat. Meskipun baik pihak kepolisian maupun sekolah tidak secara eksplisit mengonfirmasi keterlibatan kantong Doritos, mereka juga tidak menyangkalnya.
Teknologi yang menjadi biang keladi insiden ini berasal dari Omnilert, perusahaan yang menyebut dirinya sebagai “pelopor dalam teknologi pencegahan penembak aktif bertenaga AI.” Menurut WBAL-TV 11, sekolah Allen mulai menggunakan perangkat lunak perusahaan tahun lalu untuk mendeteksi potensi ancaman di kampus. Situs web Omnilert sendiri menyatakan mereka menjual solusi deteksi senjata AI kepada sekolah-sekolah.
Baca Juga:
Implikasi Lebih Luas untuk Keamanan Berbasis AI
Kasus Allen bukanlah insiden terisolasi dalam penerapan teknologi pengenalan objek berbasis AI. Seperti yang kita lihat dalam perkembangan teknologi deteksi Photonmatrix, sistem AI memerlukan pelatihan data yang sangat spesifik untuk menghindari false positive. Dalam konteks keamanan sekolah, false positive bisa berakibat traumatis—bahkan berbahaya—bagi siswa yang tidak bersalah.
Di sisi lain, teknologi AI juga menunjukkan potensi besar dalam bidang keamanan, seperti yang ditunjukkan oleh Startup AI Pano yang berhasil mengumpulkan dana besar untuk deteksi dini kebakaran hutan. Tantangannya adalah menemukan keseimbangan antara keamanan dan privasi, antara proteksi dan proporsionalitas respons.
Pertanyaan kritis yang perlu diajukan: Seberapa siap institusi pendidikan dalam menerapkan teknologi canggih ini? Apakah ada protokol yang memadai untuk menangani false positive? Dan yang paling penting, bagaimana melindungi hak-hak siswa sambil tetap menjaga keamanan kampus?
Belajar dari Kesalahan Teknologi
Insiden di Baltimore ini mengajarkan kita pelajaran berharga tentang batasan teknologi AI. Meskipun memiliki potensi besar dalam meningkatkan keamanan, sistem otomasi tetap memerlukan pengawasan manusia dan protokol yang matang. False positive dalam deteksi senjata bukan hanya soal ketidaknyamanan—ini tentang potensi pelanggaran hak asasi dan trauma psikologis.
Ketika teknologi semakin terintegrasi dalam kehidupan sehari-hari, termasuk di lingkungan pendidikan, kita perlu memastikan bahwa sistem tersebut benar-benar memahami konteks manusia. Kantong keripik bukanlah senjata, dan remaja yang sedang bersantai setelah latihan sepak bola bukanlah ancaman keamanan.
Mungkin inilah saatnya bagi pengembang teknologi keamanan AI untuk belajar dari kesalahan ini. Bukan dengan meninggalkan teknologi sama sekali, tetapi dengan menyempurnakannya—memastikan bahwa sistem dapat membedakan antara ancaman nyata dan objek sehari-hari, antara situasi berbahaya dan momen santai remaja. Karena dalam dunia yang semakin terotomasi, kemanusiaan tetap harus menjadi prioritas utama.

