FYI.

This story is over 5 years old.

Foto

"Dipfejk" video snimci sve su ubedljiviji - i opasniji

“Dipfejk” video snimci kao što je pornić sa Gal Gadot sve su ubedljiviji — i opasniji.

Prethodno objavljeno na VICE News.

Korisnik Redita pod imenom "dipfejks" okačio je prošlog decembra video snimak lica Gal Gadot nalepljenog na telo porno glumice. Ako izuzmemo to što oči Gadot ne trepću, taj video je bio jedan sasvim ubedljiv lažnjak.

Danas skoro svako može da se nađe u skoro svemu — i nema jasnog rešenja niti ozbiljnih posledica, o čemu je Motherboard već pisao. Ova tehnologija bi u budućnosti mogla da postane još ubedljivija.

Reklame

Lažni pornić Gal Gadot je pokrenuo kratku, ali medijski opširno propraćenu lavinu amaterskih grafičkih umetnika koji su trolovali video snimcima sa zamenjenim licima. Redit, Tviter i drugi sajtovi ubrzo su zabranili ove "nedobrovoljne" video snimke. Ali video snimci iz žanra "deepfakes"— kako su postali poznati — često ostaju na mejnstrim sajtovima iz zabave. Posebno je, na primer, popularno kačiti video snimke sa licem Nikolasa Kejdža.

Iako su slavne i javne ličnosti s pravom zabrinute zbog implikacija ove tehnologije, njeni koreni ne kriju se po mračnim ćoškovima interneta.

Prošle nedelje u Vankuveru, svet kompanija za kompjuterski generisane grafike okupio se na konferenciji SIGGRAPH da bi malo raspravljao o svom zanatu. Ova godišnja konferencija okuplja filmsku industriju, kompjuterske gigante kao što su Gugl i Adob, a vodeće institucije za kompjutersku nauku predstavljaju svoja najnovija dostignuća.

Istraživači sa Tehničkog univerziteta u Minhenu, zajedno sa kolegama sa Stenforda, predstavili su svoj rad uz čiju pomoć će dipfejks postati još napredniji. Ali kad ih je neko iz publike pitao kako su planirali da se suoče s etičkim implikacijama ovih lažnih videa koje je lako napraviti, niko nije imao zadovoljavajući odgovor. Istraživači izgleda nisu razmišljali o tome kako bi tehnologija koju razvijaju mogla da se zloupotrebi.

Vlada Sjedinjenih Država zato misli da je to problem. Ove godine će Agencija za napredne istraživačke projekte odbrane, iliti DARPA, potrošiti više od 28 miliona dolara na razvoj načina da se otkriju i raskrinkaju dipfejk video snimci. Ali čak i ako DARPA pomogne finansiranje tehnologije koja može da otkrije lažni video snimak, to ne znači da ljudi neće moći da ih prave — i brzo šire dalje.