Fotografija: Getty Images
Tekst je prvobitno objavljen na VICE News.Skoro svako može uz pomoć Gugla da pronađe lažne pornografske klipove Melanije i Ivanke Tramp.Kada u Guglu ukucate “Melania deepfake” ili “Ivanka deepfake”, izađe vam dugačka lista linkova ka video klipovima u kojima su lica Melanije i Ivanke Tramp nalepljena na lica porno zvezda. U jednom klipu, glumica koja izgleda kao Ivanka Tramp masturbira na klipove u kojima njen otac najavljuje predsedničku kandidaturu.Za video prve dame je zaslužan korisnik RedKiller, koji je takođe napravio gomilu lažnih pornografskih filmova sa holivudskim glumicama poput Mile Kunis i Dženifer Lav Hjuit.Dok su se platforme poput Tvitera, Redita i Pornhaba tokom proteklih meseci rešile lažnog pornografskog sadržaja, oni nastavljaju da se pojavljuju onlajn zato što Gugl odbija da ukloni legalan sadržaj – bez obzira koliko on bio uvredljiv.“Tehnologija napreduje veoma, veoma brzo i bukvalno svakog meseca vidimo napredak u ovom polju”, kaže Farid. “Samo je sada tehnologija postala dostupna mnogo većem broju ljudi.”Lažni klipovi su se prvi put pojavili prošle godine na Reditu i dobili su ime (Deepfake) po korisniku koji je prvi objavio ovakav sadržaj na sajtu.Iako su do sada bili ograničeni na pornografiju, video koji je prošle nedelje objavljen na Bazfidu pokazuje kako bi ova tehnologija mogla da se koristi u političke svrhe.U klipu pisac i režiser Džordan Pil daje glas bivšem predsedniku SAD Baraku Obami, pokazujući kako mogu da se prave lažni, ali ubedljivi audio ili video klipovi neke osobe na visokom položaju.- Ako svesno napravim lažan sadržaj sa ciljem da uništim protivnika, ako namerno to uradim, činjenica da to radim pod okriljem slobode govora me ne može zaštititi tužbe – kaže Šezni.Ali oni koji prave ovakav sadržaj imaju kartu za izlaz – umetnost.“Umetnost je veoma škakljiva”, kaže Šezni. “Da sam ja loš glumac i da me optuže za stvaranje lažnog sadržaja, tvrdio bih da je u pitanju satira.”Ali ako zakon ne može da se suoči sa problemom na adekvatan način, tehnologija bi mogla da pruži pomoć. Ipak, kreatori lažnog sadržaja su još uvek u prednosti u odnosu na softver koji bi mogao da uoči lažnjak.
Reklame
Porno industrija je još jednom prerano usvojila nove tehnologije i ovakav sadržaj će sigurno nauditi žrtvama. Međutim, potencijalna pretnja lažnih video klipova seže mnogo dalje od pornografije. Od prenapumpavanja lažnih vesti, do podrivanja demokratije i podsticanja nasilja, mogućnost da napravite da je bilo ko izgovorio bilo šta, može imati katastrofalne posledice.Što je još gore, ovakvi klipovi će naterati ljude da još više sumnjaju u celokupan onlajn sadržaj, dok će istovremeno dati kartu na koju mogu da igraju svi oni koji kažu nešto zbog čega bi kasnije zažalili.- Svaki put kada bi neki političar rekao nešto neodgovarajuće, uvredljivo ili protivzakonito, mogao bi da porekne to, govoreći da je reč o lažnom sadržaju”, kaže za VICE Hani Farid, forenzičar za fotografije i šef departmana za informatiku Darmaut Koledža.Mogućnost da napravite video u kome neko izgovara ili radi nešto je godinama bila privilegija isključivo Holivudskih studija. Danas, sa naglim napretkom u razvoju tehnologije i veštačke inteligencije, svako sa kompjuterom može da napravi ovakav video.
Reklame
Razmotrimo scenarije u kojima bi dipfejk klipovi mogli da se koriste u širenju lažnih vesti:
- Video Baraka Obame kako “otkriva” da je rođen u Keniji.
- Donald Tramp koji “priznaje” da je ruski špijun.
- Beli policajac koji puca na nenaoružanog crnog čoveka, dok izgovara rasističke uvrede.
- Pripadnik izraelske vojske kako ubija civila.
Reklame