Manipulasi Gambar

Rupanya Teknologi Deepfake Mayoritas Dipakai Buat Bikin Video Porno, Bukan Hoax

Penelitian terbaru menganalisis ribuan video deepfake di internet. Sejauh ini, kita bisa menarik napas lega....
AN
Diterjemahkan oleh Annisa Nurul Aziza
8.10.19
Rupanya Teknologi Deepfake Mayoritas Dipakai Buat Bikin Video Porno, Bukan Hoax
Ilustrasi oleh: Seth Laupus 

Media, politikus, dan ahli teknologi selama ini mengkhawatirkan teknologi deepfake disalahgunakan menjelang pemilu, padahal menurut penelitian terbaru, deepfake bersifat pornografi. Dari semua deepfake yang dianalisis, hasilnya menunjukkan target utama teknologi ini adalah perempuan.

Studi ini sebaiknya dijadikan pengingat bahwa meski deepfake bisa dimanfaatkan oknum politik untuk menyebarkan informasi palsu, kegunaannya saat ini dirancang untuk melecehkan perempuan.

Iklan

"Kami melihat tren utamanya yaitu penggunaan deepfake untuk menyebarkan pornografi non-konsensual, yang menghasilkan 96 persen video deepfake di internet," demikian bunyi penelitian berjudul The State of Deepfakes yang ditulis perusahaan keamanan siber Deeptrace.

Deeptrace menemukan total 14.678 video hasil deepfake di internet. Giorgio Patrini, CEO dan kepala ilmuwan Deeptrace, mengatakan mereka mengamati target jenis kelamin dari lima situs porno deepfake (7.144 video) dan 14 kanal YouTube (kurang dari 500 video). Laporannya menambahkan video-video dari empat situs pornografi teratas sudah ditonton 134 juta kali, dan 1 persen dari subjek video adalah aktris dan musisi perempuan.

Motherboard pertama kali menulis tentang deepfake akhir 2017 lalu. Pada Juni, kami menyoroti “ada semakin banyak media yang melaporkan fenomena ini, dan betapa berita-berita tersebut memicu kepanikan karena kebenaran videonya sulit dibuktikan, terutama saat menyangkut berita dan politik. Akan tetapi, teknologi ini awalnya diciptakan karena seks—dan budaya maskulinitas beracun yang dengan sengaja mengabaikan persetujuan.”

Laporannya melanjutkan, "Pornografi deepfake adalah fenomena yang secara eksklusif menyerang dan merugikan perempuan. Sebaliknya, mayoritas subjek dalam video deepfake non-pornografi yang kami perhatikan di YouTube adalah laki-laki."

Artikel ini pertama kali tayang di Motherboard