Masa Depan Suram

Editan Pornografi Bermodal 'Deepfake' Makin Canggih Saja, Gal Gadot Bukan Korban Terakhir

Tim pengembang teknologi edit video itu ingin hasilnya makin riil dan mulus, tapi mereka lupa ada aspek etika yang sangat mungkin dilanggar. Buktinya ya marak pornografi yang dipasangi wajah artis terkenal.
30.8.18

Internet heboh pada Desember tahun lalu. Muncul video di forum diskusi online Reddit, menggambarkan Gal Gadot memerankan adegan pornografis. Ternyata unggahan akun bernama 'Deepfakes' hanyalah hasil edit video, menempelkan wajah sang bintang film asal Israel itu ke tubuh aktris porno. Sejak itulah, terminologi deepfake makin dikenal komunitas Internet. Banyak orang tertarik menjajal perangkat lunak untuk menyunting video apapun, mengganti wajah pemerannya dengan sosok terkenal.

Hasil editan video yang mencuri wajah Gal Gadot sempat menipu banyak orang. Kalau jeli sajalah, misalnya menyadari Gadot sama sekali tidak berkedip selama durasi video, baru kita sadar videonya hasil editan. Teknologi penyuntingan video masa kini tersebut memakai kecerdasan buatan. Makanya gerak bibir dan upaya meniru wajah oleh komputer seperti betulan saja.

Sekarang mungkin orang masih sebatas iseng, mengganti aktris film porno dengan sosok terkenal. Tapi apa jaminannya teknologi deepfake tidak dipakai untuk memproduksi hoax, mengubah pidato politik, meminjam sosok orang lain untuk menyebar kebencian? Tim redaksi Motherboard, situs teknologi di bawah VICE, pernah melaporkan kalau banyak negara belum punya aturan hukum untuk praktik editing video. Masalahnya, di masa mendatang, teknologi penyuntingan gambar macam Deepfake akan semakin sempurna hasilnya.


Tonton video liputan tim VICE News Tonight soal perkembangan teknologi deepfake di menit 19.50 tautan berikut:


Setelah insiden tersebarnya video editan Gal Gadot, media sosial segera menghapus semua konten pornografis tersebut. Tapi, praktik pemakaian deepfake terus bertahan, meski dalam konteks lucu-lucuan. Kalau kalian sering membuka Reddit, Twitter, atau Instagram di negara Barat, pasti muncul banyak video deepfake meminjam wajah Nicholas Cage atau Donald Trump masuk ke film klasik. Para pesohor, terutama, paling takut kalau teknologi deepfake sampai populer dan bisa diakses siapapun.

Satu persoalan besar adalah kenyataan berikut: deepfake bukan kreasi internet nerd di antah berantah. Tim kreator deepfake justru insinyur teknologi yang baik-baik saja, dan tidak membayangkan ciptaan mereka disalahgunakan.

Iklan

Contohnya bisa kita lihat dari pameran teknologi SIGGRAPH di Vancouver, Kanada. Di sana, perusahaan-perusahaan raksasa macam Google dan Adobe memamerkan terobosan anyar masing-masing. Nah, ada tim peneliti dari Technical University of Munich bersama Universitas Stanford, yang memperkenalkan software olah video terbaru. Hasilnya sangat alami, sulit dibedakan oleh mata telanjang apakah itu video editan.

Nah, ketika ditanya oleh pengujung pameran, apa yang akan mereka lakukan supaya teknologi macam ini tidak disalahgunakan, para peneliti tadi kesulitan menjawabnya. Mereka sendiri ternyata juga bingung apa saja batasan etis penyuntinga video—serta tidak mempertimbangkan ada potensi teknologi macam ini dipakai buat melanggar hukum.

Sejauh ini, Amerika Serikat menjadi salah satu negara yang menyadari risiko besar dari teknologi deepfake. Makanya Badan Penelitian Sistem Pertahanan Mutakhir (DARPA) di bawah komando Departemen Pertahanan AS menggelontorkan lebih dari US$28 juta untuk menciptakan alat pendeteksi video abal-abal hasil editan. Masalahnya, teknologi ini kemungkinan bakal didominasi pemerintah. Orang biasa macam kitalah yang akan jadi korban dari maraknya video editan, yang kualitasnya makin canggih, jika tidak berhati-hati.

Artikel dan video ini sebelumnya tayang di VICE News Tonight on HBO