Pengisi Suara Siri Gugat Apple

Telset.id, Jakarta – Apple tersandung masalah perizininan terkait fitur asisten digital Apple Siri untuk versi bahasa ibrani. Aktris pengisi suara bernama Galit Gura-Eini menuntut Apple karena menggunakan suaranya tanpa izin. Dia berdalih, suaranya kini digunakan Apple untuk hal-hal yang tidak ia inginkan.

Dilansir Telset.id dari Ubergizmo, kasus ini bermula ketika Gura-Eini merekam suaranya untuk perusahaan teknologi asal Israel, Nuance pada tahun 2007. Saat itu, dia memberikan izin pada Nuance menggunakan suaranya.

Tetapi dirinya kaget karena Apple juga menggunakan suaranya untuk teknologi buatan mereka, yakni Siri. Pihak Apple mengklaim telah memperoleh hak atas rekaman suara Gura-Eini dari Nuance yang digunakan untuk Siri, karena telah mengakuisisi perusahaan tersebut.

Gura-Eini mengaku telah meminta Apple untuk menghapus suaranya di Siri, karena ia merasa kini banyak orang yang mengira dia mengucapkan kata-kata yang mengandung kekerasan, rasis dan seksual. Namun permintan Gura-Eini untuk menghapus suaranya dari Siri ditolak Apple.

{Baca juga: Keputusan Aneh, Apple Izinkan Apple Music di Amazon Echo}

Gura-Eini menggugat Apple dan meminta ganti rugi sekitar $ 66.000 atau Rp 961 juta. Di dalam gugatannya, Gura-Eini berpendapat bahwa suaranya diidentifikasi negatif secara luas, dan dapat berpotensi membingungkan orang karena menganggap dia benar-benar mengatakan hal tersebut, padahal itu hanya suara yang dipakai dalam fitur teknologi.

Gugatan yang dilayangkan Gura-Eini ini diduga karena Siri sebelumnya sempat “berlaku aneh”. Hal itu terjadi pada akhir November 2018, dimana Siri memberikan jawaban nyeleneh saat mendapatkan pertanyaan yang berkaitan dengan Presiden Amerika, Donald Trump.

{Baca juga: Duh! Siri Samakan Donald Trump dengan Alat Kelamin Pria}

Bagaimana tidak, Siri menyamakan Trump dengan alat kelamin pria. Kejadian itu terjadi saat Siri ditanya soal umur dari orang nomor satu di Amerika Serikat tersebut.

Hasilnya, Siri menampilkan informasi umur Trump berbarengan dengan foto kemaluan laki-laki, bukan wajah Trump. Saat itu banyak yang menduga kesalahan fatal yang dilakukan asisten digital buatan Apple itu karena diakibatkan adanya bug. [NM/HBS]

 

LEAVE A REPLY

Please enter your comment!
Please enter your name here