Kecerdasan buatan

Perangkat Lunak Ini Bisa Memberi Wajah Palsu Supaya Privasimu Aman di Internet

DeepPrivacy menyamarkan wajah asli dengan jutaan wajah lain.
19.9.19
Tangkapan layar dari cara kerja DeepPrivacy
Ilustrasi cara kerja DeepPrivacy mengubah wajah kita.

Dalam A Scanner Darkly, Phillip K. Dick menceritakan tentang “jubah penyamaran” yang dapat mengubah wajah penggunanya menjadi jutaan wajah manusia lain. Para penulis fiksi ilmiah sudah lama menginginkan cara melindungi diri dari pengawasan yang tak diinginkan.

Dengan perkembangan teknologi yang semakin maju, impian itu bisa saja menjadi kenyataan. Ditambah lagi, kini sudah ada deepfake yang mampu menggabungkan wajah seseorang dengan tubuh orang lain.

Para peneliti dari Universitas Sains dan Teknologi Norwegia tengah mengembangkan DeepPrivacy, yang bisa merahasiakan wajah asli kita dengan menyamarkannya mirip jutaan wajah manusia.

Program tersebut dapat digunakan secara real-time dan menempatkan wajah realistis ke tubuh kita yang bergerak atau berbicara. Kemampuannya telah dibuktikan dalam video siaran langsung yang dianonimkan.

Iklan

Temuannya diterbitkan di server preprint arXiv pada 10 September.

DeepPrivacy menggunakan teknologi yang mirip dengan deepfake. Generative Adversarial Networks (GANs) berfungsi mengganti wajah asli, dan membandingkannya dengan jutaan wajah yang diambil dari dataset “Flickr Diverse Faces” buatan peneliti.

Dataset baru itu memiliki 1,47 juta wajah dari dataset YFCC100M, yang berasal dari 100 juta gambar wajah berlisensi Creative Commons di Flickr.

Hasilnya masih sangat surreal. Contoh fitur dan ekspresi wajahnya berubah-ubah dan tidak stabil, sehingga cukup menakutkan. Video panel aktor editan DeepPrivacy yang diunggah peneliti menampilkan wajah sejumlah orang dengan kabur. Wajahnya anonim, tetapi tidak realistis seperti deepfake.

“GAN DeepPrivacy tidak pernah melihat informasi privasi sensitif, sehingga menjamin gambar yang benar-benar anonim,” tulis peneliti pada repositori Github mereka. Kode lengkap programnya juga tersedia di sana. “Programnya memanfaatkan bounding box annotation untuk mengidentifikasi area sensitif privasi, dan jarang mengajukan informasi untuk memandu jaringan dalam skenario sulit.”

Sayangnya DeepPrivacy melupakan fitur seperti telinga, yang bisa digunakan analis forensik untuk mengidentifikasi seseorang.

“Mengaburkan bagian dalam wajah dapat melindunginya dari algoritme pengenalan wajah konvensional, tetapi privasi visual pembuktian di masa depan hampir tidak mungkin,” kata Adam Harvey, peneliti visi dan privasi komputer di Berlin, kepada Motherboard. “Menganonimkan fitur tambahan termasuk telinga, rambut, pakaian, dan bentuk kepala dapat mengurangi ancaman yang muncul dari analisis biometrik.”

Walaupun DeepPrivacy masih dalam tahap pengembangan, program ini menimbulkan pertanyaan baru tentang bagaimana teknologi seperti deepfake dan semacamnya bisa dimanfaatkan dengan baik. DeepPrivacy bukan satu-satunya teknologi yang dirancang untuk menghindari deteksi pengenalan wajah dan merahasiakannya selama bertahun-tahun, seperti kamuflase anti-pengawasan berteknologi rendah.

Algoritme yang tidak mengumpulkan data wajah asli, dan mengotomatisasi proses menghindari pengawasan atau pengidentifikasian online, dapat menjamin privasi bagi streamer pada platform gaming dan pekerja seks.

Iklan

Namun, hal ini juga memunculkan keprihatinan tentang bagaimana dataset digunakan oleh komunitas riset AI. Dataset YFCC100M menggunakan foto berlisensi Creative Commons yang diunggah pengguna Flickr. Itu berarti foto-fotonya bebas digunakan siapa saja. Akan tetapi, pemiliknya mungkin tak akan menyadari gambarnya dijadikan dataset baru dan diterapkan pada proyek seperti DeepPrivacy. Dataset Diversity in Faces, yang dikembangkan IBM awal tahun ini dengan tujuan mengatasi algoritme bias, juga terdiri dari gambar fair use Flickr — dan menerima kritik dari peneliti privasi karena menggunakan gambar tanpa persetujuan orang.

“Orang memberi persetujuan untuk membagikan foto mereka di ekosistem internet berbeda,” Meredith Whittaker, co-director AI Now Institute, memberi tahu NBC tentang dataset IBM Diversity in Faces. “Mereka kini secara tidak sadar masuk ke dalam sistem yang berpotensi digunakan dalam cara yang menindas komunitas mereka.”

Melapis teknologi dengan sistem yang sudah cacat tak akan menyelesaikan masalah privasi, konsensual, atau pengawasan. Tetapi jika digabungkan dengan apa yang dibuat aktivis anti-pengawasan untuk membasmi pengenalan wajah, proyek seperti DeepPrivacy adalah awal menarik dari keamanan privasi yang dimasukkan ke dalam teknologi kita sehari-hari.

Artikel ini pertama kali tayang di Motherboard