teknologi

Ilmuwan Memprediksi Kecerdasan Buatan yang Bisa Jadi Alat Kejahatan Paling Berbahaya

Ketidakpercayaan akibat konten palsu berpotensi meruntuhkan peradaban manusia di masa depan. Berikut daftar penyalahgunaan AI paling berisiko.
11 Agustus 2020, 5:55am
Ilustrasi robot

Film Hollywood sering menggambarkan betapa menyeramkannya ketika robot buatan manusia menjadi lebih cerdas daripada penciptanya. Manusia menjadi tidak berdaya karena semuanya telah dikuasai monster tak berperasaan itu. Ketakutan tersebut bahkan sudah dirasakan sampai ke dunia nyata. Tak sedikit orang mengkhawatirkan kehadiran robot, yang dipercaya akan mengambil alih dunia dan memulai peperangan melawan manusia suatu saat nanti.

Namun, para peneliti dari University College London justru punya pandangan lain. Dalam studi yang diterbitkan di jurnal Crime Science, mereka menilai deepfake bisa menjadi alat kejahatan paling berbahaya dalam 15 tahun ke depan. Teknologi rekayasa multimedia berbasis AI ini nantinya tak hanya dimanfaatkan untuk menargetkan perempuan saja, tetapi juga untuk penipuan.

Sejumlah pihak dari kalangan keamanan siber, akademisi, kebijakan publik dan sektor swasta diminta mengikuti lokakarya yang mengharuskan mereka untuk menilai ancaman kecerdasan buatan. Bekerja dalam kelompok, mereka mengukur jenis kejahatannya berdasarkan tingkat keparahan ancaman: kerugian (bagi korban dan/atau bahaya sosial), criminal profit (realisasi tujuan kejahatan), pencapaian (seberapa mudah kejahatannya dilancarkan), dan defeatability (seberapa sulit kejahatannya dihentikan). Adapun jenis-jenis ancaman yang dinilai yaitu meliputi penipuan, manipulasi teknologi pengenalan wajah, mesin perang tak berawak dan robot militer.

Setelah membandingkan 18 jenis ancaman AI, anggota kelompok sepakat deepfake adalah ancaman terbesar. Teknologi ini dapat menghilangkan kepercayaan yang sangat dibutuhkan dalam kelangsungan hidup masyarakat.

Peringkat kejahatan AI di masa depan

Tingkat kesulitan menghentikan bahaya ancaman, dan tingkat keuntungan yang dihasilkan kejahatan. Jenis kejahatan di kuadran kanan atas adalah yang paling berbahaya dan sulit dihentikan. Gambar: M. Caldwell, J. T. A. Andrews, T. Tanay & L. D. Griffin dalam jurnal Crime Science.

“Manusia gampang memercayai apa yang dilihat dan didengar, sehingga rekaman video dan suara dianggap sebagai bukti kuat suatu kejadian. Kepercayaan ini tidak pernah goyah bahkan setelah mengetahui yang namanya manipulasi foto,” tulis peneliti. “Teknologi deep learning yang semakin canggih meningkatkan peluang terciptanya konten palsu.”

Deepfake, yang awalnya dimanfaatkan untuk menciptakan foto dan video porno non-konsensual, telah merasuki dunia politik. Berikut dampak yang mungkin timbul akibat teknologi AI ini: penipuan bersifat individu dengan meniru anggota keluarga, atau video politikus yang dimanipulasi untuk menabur ketidakpercayaan. Konten palsu semacam ini sulit dimusnahkan karena orang awam takkan mampu membedakan mana video asli dan mana yang ciptaan deepfake. Editannya terlalu realistis.

Menurut peneliti, kerusakan ini dapat dicegah apabila manusia mau mengubah sikapnya. Mereka bisa lebih kritis dan tidak langsung memercayai apa yang dilihat dan didengar. Apabila bukti visual sekecil apapun dianggap meyakinkan, maka bukti aslinya akan semakin sulit dipercaya. Perubahan perilaku memang dibutuhkan, tetapi dapat dianggap sebagai bahaya sosial tak langsung dari deepfake.

Kemudian ada mobil tak berawak, yang dikhawatirkan menjadi senjata jarak jauh bagi teroris. Berita palsu buatan AI, phishing yang disesuaikan dan robot militer menjadi ancaman paling berbahaya selanjutnya. Serangan berbentuk robot pemalsuan, penguntitan dan pencurian—yang sudah ada jauh lebih lama dari deepfake dan kendaraan tak berawak—menempati peringkat paling rendah.

Profesor Shane Johnson, Direktur Pusat Kejahatan Masa Depan Dawes di UCL yang mendanai penelitian, berujar: “Dunia ini terus berubah dan menciptakan peluang baru, baik itu bagus maupun buruk. Ancaman kejahatan perlu diantisipasi supaya pembuat kebijakan dan pihak penting lainnya bisa segera melakukan pencegahan sebelum jenis kejahatan baru ini muncul.”

Follow Satviki di Instagram.

Artikel ini pertama kali tayang di VICE India.